专利摘要:
1つ以上のメディアソースを含む空間内で識別およびトラッキングされるユーザに対して事前定義された特権を自動的に適用するためのコンピュータ実装方法が提供される。前記方法は、ユーザプロファイルを定義してメモリに保存する操作を有する。前記ユーザプロファイルは、深度検知カメラによってユーザを識別およびトラッキングするためのデータを含んでもよい。あるいは、前記ユーザプロファイルに対して特定のメディアへのアクセスのレベルを定義する特権が定義されて保存される。また、前記方法は、前記深度検知カメラから、前記空間内のシーンの画像および深度データをキャプチャする操作を有する。更に別の操作では、前記画像および深度データから、前記シーン内で前記ユーザがトラッキングおよび識別される。あるいは、前記ユーザが前記シーン内で識別およびトラッキングされるときに、前記ユーザに対して1つ以上のメディアソースのうちの選択されたコンテンツへのアクセスが許可されるように、前記定義済みの特権が前記メディアソースに自動的に適用される。
公开号:JP2011515736A
申请号:JP2010548826
申请日:2009-02-24
公开日:2011-05-19
发明作者:エム.;ザルースキ ゲイリー;ハイ マイク
申请人:ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー;ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド;
IPC主号:G06F21-24
专利说明:

[0001] ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきた。このために、ビデオゲームの開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。]
[0002] ゲームプラットホームの例に、ソニープレイステーション(登録商標)、ソニープレイステーション2(登録商標)(PS2)およびソニープレイステーション3(登録商標)(PS3)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトルユニットなどの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒に対話的にプレイすることができるオンラインゲームも可能である。]
発明が解決しようとする課題

[0003] インターネットに接続されている処理能力の高いゲームコンソールは、ストリーミングおよびダウンロード可能なメディアを供給するオンラインインタラクションおよびオンライン市場へのアクセスを提供することが可能なエンタテインメントポータルとして機能するようになってきている。オンライン環境では、親は、有効で効率的なペアレンタルコントロールに苦労することが多い。ペアレンタルコントロールは個別に設定しなければならないため、ペアレンタルコントロールの効果がなくなったり、行き過ぎになったり、部分的に設定するとペアレンタルコントロールに食い違いが生じることがある。例えば、ケーブルボックスがテレビのチャンネルのペアレンタルコントロールを提供している場合、DVDまたはブルーレイディスクなどの光学メディアに記憶されたビデオに別途ペアレンタルコントロールを設定する必要があることがある。]
[0004] 本発明の実施形態は、この状況においてなされたものである。]
課題を解決するための手段

[0005] 概して、本発明は、深度検知カメラを使用してシーン内でのユーザの識別およびトラッキングを可能にする。前記ユーザの識別およびトラッキングにより、前記シーン内で前記識別およびトラッキングされたユーザに基づいて、各種メディアソースへのアクセス制御の自動適用が可能となる。ユーザは、ユーザプロファイルの一部として前記アクセス制御を構成することができる。また、ユーザは、自身のユーザプロファイルの一部として、アバターをアバターアニメーションと共に構成することもできる。前記アバターアニメーションは、前記シーン内でのユーザの移動を表示するために使用されうる。]
[0006] 一実施形態では、1つ以上のメディアソースを含む空間内で識別およびトラッキングされるユーザに対して事前定義された特権を自動的に適用するためのコンピュータ実装方法が開示される。前記方法は、ユーザプロファイルを定義してメモリに保存する操作を有する。前記ユーザプロファイルは、深度検知カメラによってユーザを識別およびトラッキングするためのデータを含んでもよい。別の操作では、前記ユーザプロファイルに対して特定のメディアへのアクセスのレベルを定義する特権が定義されて保存される。また、前記方法は、前記深度検知カメラから、前記空間内のシーンの画像および深度データをキャプチャする操作を有する。更に別の操作では、前記画像および深度データから、前記シーン内で前記ユーザがトラッキングおよび識別される。更に別の操作では、前記ユーザが前記シーン内で識別およびトラッキングされるときに、前記ユーザに対して1つ以上のメディアソースのうちの選択されたコンテンツへのアクセスが許可されるように、前記定義済みの特権が前記1つ以上のメディアソースに自動的に適用される。]
[0007] 別の実施形態では、事前定義されたコンピュータ生成効果を、現実世界のオブジェクトの仮想世界表現に自動的に適用するために、前記現実世界のオブジェクトを識別およびトラッキングするためのコンピュータ実装方法が開示される。前記方法は、深度検知カメラによって前記ユーザを識別およびトラッキングするためのデータを含むユーザプロファイルを定義し、メモリに保存する操作を有する。また、前記方法は、前記ユーザプロファイルに関連し、仮想世界シーンに一体化されるアニメーションを定義し、前記メモリに保存する操作を有する。別の操作では、前記深度検知カメラはシーンをキャプチャし、前記シーン内で、前記ユーザが識別およびトラッキングされる。更に別の操作では、ディスプレイ画面が前記一体化されたアニメーションを表示するように、前記識別およびトラッキングされたユーザに基づいて前記定義したアニメーションが自動的に適用される。]
[0008] 更に別の実施形態では、現実世界の空間内で現実世界のユーザを識別およびトラッキングするためのコンピュータ実装方法が開示される。一操作では、深度検知カメラによってキャプチャされた画像および深度データからユーザプロファイルが定義される。前記ユーザプロファイルは、前記現実世界のユーザの物理的な特徴に関連する画像および深度データを含んでもよい。別の操作では、前記深度検知カメラを使用してシーンの画像および深度データがキャプチャされうる。また、前記方法は、前記シーン内で移動オブジェクトを識別する操作を有してもよい。別の操作では、前記移動オブジェクトの画像および深度データにより、前記シーン内で、前記現実世界のユーザの頭部にロックオンしてこれをトラッキングすることが可能となる。更に別の操作では、前記頭部の前記画像および深度データがリアルタイムに分析される。前記分析では、前記頭部の画像および深度データと、物理的な特徴に関連するユーザプロファイルの画像および深度データとの比較が行われてもよく、前記ユーザプロファイル内の画像および深度データが、前記頭部の画像および深度データと実質的に一致する場合、ユーザが識別される。]
[0009] 本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。]
図面の簡単な説明

[0010] 本発明の一実施形態による、事前定義されたコンピュータ生成された効果を、現実世界のオブジェクトの仮想世界表現に適用するために、現実世界のオブジェクトの識別およびトラッキングに使用されうる例示的な操作を含むフローチャートである。
本発明の一実施形態による、コンピュータシステムに接続された深度検知カメラの視野内のシーンを示す。
本発明の一実施形態による、ユーザプロファイルの定義に使用されうる例示的な画面を示す。
本発明の一実施形態による、ユーザプロファイルの定義に使用されうる例示的な画面を示す。
本発明の一実施形態による、ユーザプロファイルの定義に使用されうる例示的な画面を示す。
本発明の一実施形態による、ユーザプロファイルの定義に使用されうる例示的な画面を示す。
本発明の一実施形態による、追加のユーザである母親の追加が完了した状態を示す例示的な画面である。
本発明の一実施形態による、深度検知カメラによってキャプチャされ、ユーザの認識に使用されうる顔のパーツを示す。
本発明の一実施形態による、さまざまな位置におけるユーザの頭部250の画像および深度データのキャプチャを示す。
本発明の一実施形態による、深度検知カメラによってキャプチャされたさまざまな図から構築されるモデリングしたユーザの顔251の各種ポーズのマトリクスを示す。
本発明の一実施形態による、さまざまな顔のパーツの相対位置の変化を示す3つの画像のシーケンスである。
本発明の一実施形態による、ユーザの頭部の画像および深度データを取得するための手順を示す例示的なフローチャートである。
本発明の一実施形態による、深度検知カメラの視野内でユーザを識別するための手順における例示的な操作を示す例示的なフローチャートである。
本発明の一実施形態による、ペットのユーザプロファイルの作成に使用されうる例示的な簡略化した画面の組を示す。
本発明の一実施形態による、ペットのユーザプロファイルの作成に使用されうる例示的な簡略化した画面の組を示す。
本発明の一実施形態による、ペットのユーザプロファイルの作成に使用されうる例示的な簡略化した画面の組を示す。
本発明の一実施形態による、ユーザに割り当てられる各種特権を示す例示的な表を示す。
本発明の一実施形態による、ユーザによって作成されるアニメーションを示す例示的な表である。
本発明の一実施形態による、処理済みビデオとして画面に表示される現実世界のシーンを含む空間を示す。
本発明の実施形態による、例示的な処理済みビデオを示す。
本発明の一実施形態による、現実世界のシーンと、現実世界のシーンが処理済みビデオ10cとして画面に表示される様子とを示す。
認識されたオブジェクトの識別およびトラッキングを改善するために、点トラッキングを適用するための操作を示す例示的なフローチャートである。
本発明の一実施形態による、点トラッキングを示すシーンの例示的な図である。
本発明の一実施形態による、ユーザ定義コントローラを作成するために動的三次元オブジェクトマッピングを使用可能なコンピュータシステムである、ソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスの全体的なシステムアーキテクチャを模式的に示す。]
実施例

[0011] 本発明とその更なる利点とは、添付の図面を参照して以下の記載を読めば、よりよく理解できるであろう。]
[0012] 深度検知カメラからの画像および深度データによってユーザを識別したのちに、コンピュータシステム用のユーザプロファイルを自動的に適用するための方法が開示される。概して、コンピュータシステムは、ユーザからの入力を受け取るものであれば、汎用コンピュータ(例えば、デスクトップ、ノートブック、ハンドヘルドデバイス、スマートフォンなど)でも、ゲームコンソールのような専用コンピュータでも、どのようなタイプのシステムであってもよい。深度検知カメラは、画像データに沿って幾何学的な深度データをキャプチャすることができる。深度検知カメラは、分析および処理させるために、画像および深度データをコンピュータシステムに提供することができる。一実施形態では、深度検知カメラは単レンズカメラであり、別の実施形態では、複数のカメラレンズを使用して、さまざまな位置または視点から画像および深度データがキャプチャされてもよい。]
[0013] 以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。]
[0014] 図1Aは、本発明の一実施形態による、事前定義されたコンピュータ生成された効果を、現実世界のオブジェクトの仮想世界表現に適用するために、現実世界のオブジェクトの識別およびトラッキングに使用されうる例示的な操作を含むフローチャートである。操作100は、識別およびトラッキングするユーザを定義するために使用される。一実施形態では、操作100は、コンピュータシステムに接続された深度検知カメラを使用して実行される。ユーザが、深度検知カメラによってキャプチャされた個々の特徴によって判別されて、コンピュータシステムによって実行されているソフトウェアによって認識されうる。各種実施形態では、顔の特徴(目、鼻および口などの顔のパーツの間の距離などが挙げられるが、これらに限られない)がキャプチャされうる。別の実施形態では、カメラの深度検知機能を使用して、ユーザの鼻、目、頭の大きさ、パーツの相対位置などのユーザの特徴が認識されうる。] 図1A
[0015] また、ユーザは、操作100の一環として仮想世界のアバターも定義しうる。識別およびトラッキングするためにユーザを定義する一環として、ユーザは、仮想世界においてユーザを表現するカスタマイズしたアバターを構成しうる。ユーザは、アバターを、現実世界の外見に似せて構成することも、現実世界の外見に制約されない想像上のアバターを持つように選択することもできる。この目的で、アバターは、体、頭、目、鼻、耳、口、腕、脚および髪型のサイズや形の構成を有することができるが、これらに限定されない。また、ユーザは、アバターのために、仮想の服装および履物のほか、宝石やサングラスなどの装飾品も構成することができる。]
[0016] 操作102は、識別されるユーザに対する特権およびアニメーションを定義するために使用される。特権を使用することにより、識別されたユーザが深度検知カメラの前にいるときに、コンピュータシステムを介してアクセス可能なコンテンツのタイプに制限をかけることが可能となる。一実施形態では、コンピュータシステムは、インターネットに接続されており、限定的ではないがストリーミングまたはダウンロード可能な音楽およびマルチメディア(例えば映画、テレビ番組およびビデオクリップ)などの各種メディアソースへのアクセスを提供する。また、コンピュータシステムは、YouTubeなどのストリーミングビデオ対応のウェブサイトにアクセスするためのウェブブラウザを提供すると共に、オンラインまたはダウンロード可能なゲームへのアクセスも提供する。また、コンピュータシステムは、DVDまたは他の光記憶メディア(例えばブルーレイまたはHD−DVDディスク)を再生可能な統合メディアソースも備える。定義済みのユーザに割り当てられる特権により、特定のタイプの動画、テレビ番組、ゲームおよびウェブサイトへのアクセスの制限が可能となる。]
[0017] また、操作102は、識別されるユーザに対してアニメーションを定義するためにも使用されうる。アニメーションは、深度検知カメラおよびコンピュータシステムによって検出される現実世界での動作に対応させて、識別済みのユーザのアバターを画面上でアニメーション表示させるために使用されうる。例えば、一実施形態では、ユーザの動く速度がしきい値速度を超えたときに、アニメーションがユーザアバターに適用されうる。一実施形態では、ユーザの動きが遅い場合、ユーザの仮想世界のアバターに、クモの巣またはスパイダーウェブがアニメーション表示されうる。別の実施形態では、ユーザの動きが速い場合、アバターにブラーをかけたり、あるいは他のアニメーション(例えば、モーションクラウドや音声効果)など、ユーザの速い動きを強調するアニメーションが表示されうる。深度検知カメラとコンピュータシステムが、識別済みのユーザを認識すると、後から取得が可能となるように、ユーザアバターが、定義済みの特権およびアニメーションと共に保存されうる。]
[0018] 操作104は、深度検知カメラの視野に入った移動オブジェクトを識別およびトラッキングするために使用されうる。カメラの視野内の移動オブジェクトが定義済みのユーザとして認識された場合、操作106は特権および/またはアニメーションを自動的に適用しうる。移動オブジェクトが定義済みのユーザとして認識されない場合は、操作106は、デフォルトの特権および/またはアニメーションを自動的にロードしうる。また、操作104は、コンピュータシステムと深度検知カメラを使用して、認識されたユーザまたは認識されていないユーザの動きを経時的にトラッキングし、アニメーション表示させうる。一実施形態では、深度検知カメラが動きを識別すると、動きの経時的なログファイルの作成を開始しうる。各種実施形態では、識別済みのユーザが深度検知カメラの視野に入ると、そのユーザの事前設定されたアニメーションを使用してログファイルが作成される。このログファイルは、深度検知カメラの視野内で識別済みのユーザの動きを経時的に表示して再生されうる。]
[0019] 図1Bは、本発明の一実施形態による、コンピュータシステム120に接続された深度検知カメラ110の視野152内のシーン150を示す。深度検知カメラ110が、RGB画像モジュール114を使用して画像データをキャプチャする一方で、深度データモジュール112は、深度検知カメラ110の視野152内のオブジェクトの相対深度データをキャプチャしうる。一実施形態では、深度検知カメラ110は、三次元のオブジェクトから反射される光量に基づいて、相対深度を決定することができる。一部の実施形態では、深度検知カメラは、赤外光をパルス化可能な赤外線発光ダイオード(LED)のアレイを備える。深度データモジュール112は、反射されて深度検知カメラ110に戻るパルス化赤外光の量に基づいて、深度検知カメラ110の視野内のオブジェクトの相対深度を決定することができる。別の実施形態では、深度検知カメラ110からの画像および深度データが、コンピュータシステム120に送信されて処理される。] 図1B
[0020] 焦点モジュール118は、論理処理ユニット116と共に、深度検知カメラ110に内蔵されうる。一部実施形態では、論理処理ユニット116は、RGB画像モジュール114からのデータと、深度データモジュール112からのデータとを相関させるために使用されうる。別の実施形態では、論理処理ユニット116は、焦点モジュール118の制御を補助しうる。焦点モジュール118は、RGB画像モジュール114の焦点と深度データモジュール112の焦点を変更しうる。深度データモジュール112の焦点は、赤外線LEDアレイ内の個々の赤外線LEDの強度を上げ、その持続時間を長くすることで、変更することができる。深度検知カメラによってキャプチャされた画像および深度データは、コンピュータシステム120によって実質的にリアルタイムに処理されうる。]
[0021] コンピュータシステム120は、深度検知カメラ110から画像および深度データを受け取り、これを処理することに加えて、さまざまな他のソースを有するか、あるいはさまざまな他のソースを入力として受け取りうる。例えば、コンピュータシステム120を介して、TVソース122、DVD/ブルーレイメディア124、ゲーム126およびインターネット128にアクセスすることができる。ユーザは、コンピュータシステム120用のユーザインタフェースを介して、異なるメディアソース130a/bを選択することができる。]
[0022] シーン150には、ユーザ140、ランプ142およびソファー144が存在している。コンピュータシステム120は、静止オブジェクト(例えばランプ142およびソファー144)からユーザ140を判別しうる。深度検知カメラ110は、コンピュータシステム120からのコマンドに応答して、ユーザ140の周囲の領域146に焦点を合わせうる。深度検知カメラ110は、ユーザ140を識別するために、ユーザ140の頭部領域148に焦点を微調整しうる。深度検知カメラは、頭部領域148に焦点を合わせることで、ユーザ140の画像および深度データのキャプチャが可能となり、これらが分析されて、コンピュータシステム120に関連するプロファイルデータと比較されうる。]
[0023] 図2A〜2Dは、本発明の一実施形態による、アバターを含むユーザプロファイルの定義に使用されうる例示的な画面を示す。図2Aは、父親202、娘204および息子206のユーザプロファイルが既に作成されているコンピュータシステムの例示的な画面200を示す。また、画面200には、新しいユーザプロファイルを作成するためのボタン208も表示されている。図2Bは、本発明の一実施形態による、ボタン208の選択により表示される例示的な画面200bを示す。画面200bは、本発明の一実施形態で作成可能なタイプの異なるユーザプロファイルを表示する。例えば、人のアイコン210を選択すると、人に基づくプロファイルが作成されうる。ユーザが部屋の中でペットの動きをトラッキングしたい実施形態では、イヌアイコン212またはネコアイコン214の選択により、イヌまたはネコのプロファイルを作成することができる。追加のプロファイルタイプが追加されてもよく、上記に挙げたタイプは限定として解釈されるべきでない。] 図2A 図2B 図2C 図2D
[0024] 図2Cは、本発明の一実施形態による、人のアイコン210の選択により表示される画面200cを示す。画面200cでは、ユーザは、男性のアイコン216か女性のアイコン218かを選択することができる。この例では、ユーザは、女性のアイコン218を選択する。図2Dは、本発明の各種実施形態による、アバターを構成するための2つの異なる画面200d/eを示す。画面200dは、アバターの構成に使用可能なメニューシステムを示す。図に示すように、メニューシステムには、名前、身長、体型、目、髪型、鼻および口の選択が含まれる。当業者であれば理解するように、画面200dに示されている各メニューを選択すると、ユーザが、アバターをより細かく構成するための別の画面またはサブメニューが呼び出されうる。] 図2C 図2D
[0025] 画面200eは、本発明の一実施形態による、別のアバターカスタマイズ画面を示す。この別のアバターのカスタマイズを使用した場合、深度検知カメラを使用して、ユーザの画像がキャプチャされうる。次に、キャプチャされたユーザの画像が、コンピュータシステムによって処理されて、ユーザのキャプチャ画像に基づいてアバターが自動的に生成されうる。一部の実施形態では、自動生成されるアバターは、ベースアバターであり、ユーザは、この自動生成されたアバターの特徴を変更することができる。いずれの実施形態の場合も、ユーザは、自分で作成したか、または自動生成されたアバターを、服装または装飾品によってカスタマイズまたは調整することができる。]
[0026] 図2Eは、本発明の一実施形態による、追加のユーザである母親200の追加が完了した状態を示す例示的な画面200fである。画面200fは、図2A〜2Dで説明したように、母親220のユーザプロファイルの作成が完了すると表示される。この結果、父親202、娘204、息子206および母親220のユーザプロファイルを示す画面200fが表示される。また、図2Eは、別のユーザプロファイルを追加するためのボタン208が選択されていることも図示している。] 図2A 図2B 図2C 図2D 図2E
[0027] 図2F−1は、本発明の一実施形態による、深度検知カメラによってキャプチャされ、ユーザの認識に使用されうる顔のパーツを示す。ユーザのアバターの構成中に、深度検知カメラが使用され、ユーザの頭部250および顔のパーツの画像および深度データがキャプチャされうる。コンピュータシステムによるユーザの認識を可能にする識別特徴を得るために、画像および関連する深度データがコンピュータシステムによって分析されうる。]
[0028] さまざまな識別特徴を使用することができ、例えば、顔のパーツの間の距離、顔のパーツの相対サイズおよび顔のパーツの相対位置が挙げられるが、これらに限定されない。別の実施形態では、耳の相対位置および相対サイズなどの、ユーザの頭部の特徴が識別されてもよい。例えば、Z平面の距離として図2Fに示す深度データを使用して、Z1(ユーザの鼻の先とユーザの上唇の間の距離)が決定および認識されうる。また、深度データを使用して、Z2(ユーザの鼻の先と目の間の距離)が決定および認識されてもよい。同様に、画像データが使用されて、図2F−1に距離Xで示すユーザの2つの目の間の距離が認識されうる。同様に、ユーザの鼻と口の間の距離Bが、識別特徴として測定および使用されうる。画像データと関連する深度データは、ユーザを識別および認識するために、深度データおよび画像データからの測定値間の比率を決定することができる。]
[0029] 図2F−2は、本発明の一実施形態による、さまざまな位置におけるユーザの頭部250の画像および深度データのキャプチャを示す。一部の実施形態では、ユーザプロファイルの作成時に、ユーザが、(例えば、GUI、音声/音声コマンドまたはテキストによって)頭部をさまざまな位置に回すまたは回転させるように求められうる。これにより、深度検知カメラが、ユーザの頭部全体、あるいは、少なくとも、識別可能な顔のパーツが含まれる頭部の正面部分の大半の画像および深度データをキャプチャすることが可能となる。]
[0030] コンピュータシステムは、画像および深度データを分析して、ユーザの頭部のワイヤフレームモデルを作成しうる。一部の実施形態では、ユーザの頭部のワイヤフレームモデルが、ユーザの仮想世界のアバターの一部として使用されうる。下で更に詳細に説明するように、コンピュータシステムは、ワイヤフレームモデルを分析して、さまざまな角度での顔および頭部の特徴の間のユーザ特有の比率を決定しうる。説明した特定の顔のパーツおよび測定値は、例示を目的としたものであり、限定するものと解釈すべきでない。ユーザの識別および認識に使用できる追加の測定値を得るために、画像および深度データが分析されうる。]
[0031] 別の実施形態では、深度検知カメラを使用して、さまざまなポーズでのユーザの体全体の画像および深度データがキャプチャされてもよい。コンピュータシステムは、顔の認識の場合と同様に、画像および関連する深度データを分析して、ユーザを識別しうる。図8,図9を参照して後述するように、シーン内の静止オブジェクトが、コンピュータシステムによって認識され、シーン内でのユーザの相対位置を提供することによって、ユーザの識別およびトラッキングを補助することができる。] 図8 図9
[0032] 図2Gは、本発明の一実施形態による、深度検知カメラによってキャプチャされたさまざまな図から少なくとも部分的に構築されるモデリングしたユーザの顔251の各種ポーズのマトリクスを示す。場合によっては、構築されたポーズが、(例えば、図2F−2にキャプチャされたデータを使用して)サイズおよび深度データを近似することによって生成される。] 図2G
[0033] システムが、使用中または動作中に、ユーザが、さまざまな角度から深度検知カメラの視野に入ることがあるため、深度検知カメラが、ユーザの真正面の図を得られるとは必ずしも限らない。このため、ユーザを識別およびトラッキングするために、コンピュータシステムは、ユーザの頭部のワイヤフレームモデルを使用して、さまざまな位置におけるユーザの頭部のユーザの顔および頭部の特徴のさまざまな比率を外挿しうる。]
[0034] 行262は、ユーザが頭を傾けずに頭を右から左に回したように、ユーザの頭部のワイヤフレームモデルがキャプチャされた一連の画像を示す。行260は、ワイヤフレームモデルが頭を後ろに反らせたような位置にある同様の画像のシーケンスを示し、行264では、ワイヤフレームモデルが前屈している。列272は、各行に対するワイヤフレームモデルの顔の正面を示し、列270と列274は、深度検知カメラに、それぞれ右と左に1/3が見えているユーザの画像データを示す。同様に、列268と列276は、それぞれ右と左に2/3が見えているユーザを示し、列266と列278は、深度検知カメラに対する、それぞれ右と左の横顔のユーザを示す。図2Gに示したマトリクスは、単純化したものであり、例示とみなすべきである。実際の実施形態では、ビデオ画像をさまざまなフレームレートでサンプリングして、個々のユーザに対して編集する画像および深度データの数が増減してもよい。後述するように、ユーザの異なる図において、さまざまな顔のパーツの相対位置を求めるために、画像および深度データが分析されうる。一実施形態では、右耳E1、右目e1、鼻N、左目e2および左耳E2が、画像および深度データから識別およびトラッキングされうる。] 図2G
[0035] 図2Hは、本発明の一実施形態による、さまざまな顔のパーツの相対位置の変化(例えば、デルタ値)を示す3つの画像のシーケンスである。プロファイル280では、ユーザは、深度検知カメラにまっすぐ向いている。この角度から、ユーザの鼻Nの位置が、ユーザの目e1およびe2の位置と共に耳E1およびE2に対して決定されうる。ユーザによっては、プロファイル280内で耳E1およびE2の相対位置が決定できないことがある。このような場合、識別を、ユーザの目と鼻の相対位置から決定することができる。ユーザを識別するために、ユーザの顔のパーツと耳の相対位置が、ワイヤフレームモデルのマトリックスと比較されうる。ユーザが識別されると、コンピュータシステムは、適切なユーザプロファイルを自動的に適用しうる。また、一部の実施形態では、コンピュータシステムは、深度検知カメラからの画像および深度データを監視して、ユーザの頭部の位置を監視およびトラッキングしうる。更に別の実施形態では、空間内でユーザが見ている場所を決定するために、画像および深度データが、ユーザの眼球運動を追跡してもよい。] 図2H
[0036] プロファイル282は、ユーザが頭250を左に回すと、ユーザの顔のパーツの相対位置がどのように変化するかを示す。プロファイル280とプロファイル282を比較すると、ユーザの左耳E2が深度検知カメラからは見えなくなった一方で、右耳E1がよりはっきりと見えるようになっている。同様に、左目e2が深度検知カメラから更に離れ、右目e1と左目e2の間のアスペクト比が変化している。コンピュータシステムは、このようなリアルタイムの画像および深度データから、ユーザを、メモリに記憶されているワイヤフレームモデルから見つけようとする。プロファイル282では、深度検知カメラデータは、左目e2の深度位置を示しうる。同時に、深度検知カメラによってキャプチャされた画像データが分析され、左目e2の相対サイズが決定されうる。同様に、深度検知カメラは、右耳E1、右目e1および左目e2に対する、ユーザの鼻Nの変化を知覚しうる。]
[0037] プロファイル284は、ユーザが頭を回した状態の左の横顔の図を示す。この図では、深度検知カメラは、ユーザの右耳E1、右目e1および鼻Nの横向き全体をキャプチャする。深度検知カメラから見える顔のパーツの相対位置が決定されて、ワイヤフレームモデルのマトリックスからユーザを識別およびトラッキングするために使用されうる。図2Hで説明したプロファイルは、単純化したものであり、例示であると解釈すべきである。一部の実施形態では、顔のパーツの比率の範囲を得るために、画像および深度データの複数のフレームが1秒毎にキャプチャされてもよい。次に、サンプリングされた範囲が、ワイヤフレームモデルのマトリックス内の動きの範囲と比較されうる。図2Hに示すように、ユーザが頭を横方向に回したときに、顔の位置のさまざまな比率がトラッキングされうる。別の実施形態と同様に、ユーザが頭を前または後ろに傾けた時点を水平線を使用して決定するために、異なる比率が使用され、ユーザの目、鼻および口の相対位置が画定されうる。ユーザが頭を前または後ろに傾けると、深度検知カメラによってキャプチャされる水平線間の相対距離が計算されて、頭を、前または後ろにどのくらい傾けたかが決定されうる。] 図2H
[0038] 図2Iは、本発明の一実施形態による、ユーザの頭部の画像および深度データを取得するための手順を示す例示的なフローチャートである。以下の操作は、コンピュータシステムが後から、ユーザを認識することができるように、ユーザプロファイルを作成または変更する際に使用されうる。操作285は、ユーザの頭部のスキャンを開始する。この操作は、図2F−2のようなユーザプロファイルを作成または変更するときに開始されうる。操作285は、深度検知カメラの焦点を、ユーザの頭部領域に合わせる。一実施形態では、ユーザが、深度検知カメラに対して特定の位置に立つように求められうる。別の実施形態では、深度検知カメラが、撮像素子および深度感知素子の焦点をユーザの方に移動させてもよい。深度検知カメラの前に複数の人がいる場合、ユーザは、スクリーン上の表示を使用して、スキャン対象とする人を選択するように求められうる。] 図2I
[0039] 操作287は、頭部領域の画像および深度データを収集するために使用される。前述のように、この操作は、頭をさまざまな向きに回すよう、ユーザに指示しうる。これにより、深度検知カメラが、ユーザの頭部をさまざまな位置でキャプチャすることが可能となる。操作288は、画像および深度データに基づいてユーザの頭部のモデルを生成する。一実施形態では、深度データを使用して、ユーザの頭部の三次元ワイヤフレームモデルが構築されうる。コンピュータプログラムは、ワイヤフレームモデルを使用して、さまざまな顔のパーツおよび頭部の特徴の相対位置を決定しうる。操作289において、モデルと共に位置データが保存され、ユーザプロファイルに関連付けられうる。終了操作290でフローチャートが終了するが、他の操作が続いてもよい。]
[0040] 図2Jは、本発明の一実施形態による、深度検知カメラの視野内でユーザを識別するための手順における例示的な操作を示す例示的なフローチャートである。操作291は、深度検知カメラの視野内で移動オブジェクトを識別する。後述するように、移動オブジェクトが、ネコまたはイヌなどのペットであってもよい。ペットを識別およびトラッキングする場合、異なる操作が必要となることがある。この後の操作は、人間のユーザの識別およびトラッキングに関するものであるが、人間以外のユーザをトラッキングするために変更されてもよい。操作292は、移動オブジェクト内でユーザの頭部を検出しようと試みる。一実施形態では、コンピュータシステムは、一般に、目などの一般的な顔の特徴を使用して頭部を識別しうる。別の実施形態では、限定するものではないが、目と口または目と鼻などの顔の特徴の組み合わせを使用して頭部が識別されてもよい。] 図2J
[0041] 操作293は、頭部のトラッキングを開始し、トラッキングが、保存されているユーザのモデルとの比較に基づいて、認識可能な顔のプロファイルが見つかるまで行われる。コンピュータシステムは、頭部にロックオンして、頭部をトラッキングすることにより、リアルタイムの画像および深度データを、記憶されているユーザの頭部および顔のデータと比較することが可能となる。深度検知カメラは、ユーザを識別するために、リアルタイムの画像および深度データのフレームを、ワイヤフレームモデルの認識可能な顔のプロファイルと比較しうる。一実施形態では、コンピュータシステムは、画像データを分析して、リアルタイム画像内で頭の角度を決定し、顔および頭部のデータを、保存されているワイヤフレームモデルの同様の配置のデータと比較する。操作294は、リアルタイムのユーザで検出された特徴によって、保存されているユーザプロファイルの深度および画像データを検証しようと試みる。深度および画像データが検証されると、操作295はユーザが識別されたことを確認し、保存されているユーザプロファイルを適用する。終了操作299でこの手順が終了するが、他の操作が続いてもよい。]
[0042] 操作294において深度および画像データが検証されなかった場合、操作296は、リアルタイムユーザが識別されなかったと認識する。操作298は、コンピュータシステムが、ユーザのロックオンとトラッキングを再試行するかどうかを決定するために使用される。一部の実施形態では、コンピュータシステムが所定の回数、ユーザの識別を再試行するためのしきい値が設定されうる。別の実施形態では、コンピュータシステムは、ユーザを無期限に識別しようとする。更に別の実施形態では、ユーザの識別の再試行の回数が、利用可能なコンピューティングリソースに基づいて可変であってもよい。ユーザのロックオンを試みる再試行が行われた場合、手順は操作293に戻る。ユーザにロックオンしようとする再試行をこれ以上行わない場合、操作297はデフォルトプロファイルを変更しない。]
[0043] 図3A〜3Cは、本発明の一実施形態による、ペットのユーザプロファイルの作成に使用されうる例示的な簡略化した画面の組を示す。図3Aは、図2Eのボタン208の選択により表示される画面200bを示す。また、画面200bには、イヌアイコン212が選択されている。図3Bは、本発明の実施形態による、イヌのアバターを作成する異なる方法を示す画面300a/bを示す。画面300aは、深度検知カメラを使用して、イヌのさまざまな側面の画像をキャプチャしてアバターを作成することを示す。コンピュータシステムは、異なる画像を処理して、イヌのアバターを、プロファイル情報と共に自動的に生成し、このプロファイルにより、イヌが深度検知カメラの視野内にいるときに、そのイヌが認識可能となる。] 図2E 図3A 図3B 図3C
[0044] 画面300bは、本発明の一実施形態による、別のイヌアバター作成画面を示す。画面300bにより、ユーザは、自分のイヌのさまざまな特徴を選択して、そのイヌアバターを作成することができる。例えば、一実施形態では、ユーザは、最初に、自分のイヌのアバターの相対サイズを選択しうる。]
[0045] 図4Aは、本発明の一実施形態による、ユーザに割り当てられるさまざまなメディアソース特権を示す例示的な表400を示す。ビデオゲーム特権402は、エンターテインメントソフトウェアレーティング委員会(ESRB)によってゲームに割り当てられているレーティングに基づいて、さまざまなユーザに割り当てられうる。同様に、各ユーザに対するテレビジョン特権404が、テレビジョンペアレンタルガイドラインに基づいて設定されうる。さまざまな実施形態では、コンピュータシステムが設置されている国に応じて、異なるテレビジョンペアレンタルガイドラインがロードされうる。米国で設置されているコンピュータシステムの場合、米国映画協会(MPAA)のレーティングシステムに基づく映画特権406が各ユーザに割り当てられうる。同様に、インターネット特権408が、ユーザが指定するコンテンツへのアクセスをフィルタおよび制限するために構成されうる。コンピュータシステムが音楽410にアクセスできるようにするように構成される実施形態では、ペアレンタルアドバイザリラベル(PAL)が設定された音楽へのユーザのアクセスを許可または拒否するための特権が設定されうる。図4Aに示した特権の種類は、例示であり、説明していない追加の特権を割り当てることができるため、限定であるとみなすべきではない。] 図4A
[0046] ユーザに割り当てられた特権は、コンピュータシステムによってアクセス可能なさまざまな形式のメディアに自動的に適用されうる。例えば、息子206が、深度検知カメラの視野に入り、コンピュータシステムを介して認識されると、コンピュータシステムは、図4Aにリストアップされている特権を自動的にロードする。このため、息子416は、ESRBレーティングがEのビデオゲーム、ペアレンタルガイドラインがTV−Y7のテレビ番組、MPAAレーティングがGの映画へのアクセスのみを許される。更に、コンピュータシステムを介したインターネットアクセスには特定のネットフィルタが適用され、PALが指定されている音楽へのアクセスがブロックされる。] 図4A
[0047] 複数の認識済みのユーザがコンピュータシステムによって識別される場合には、最も制限の低い特権が有効にされうる。このため、息子206と父親202が識別された場合、コンピュータシステムは父親202にリストアップされている特権を有効にする。同様に、娘204と息子206が識別された場合、娘204にリストアップされている特権が有効にされる。]
[0048] 図4Bは、本発明の一実施形態による、ユーザによって作成されるアニメーションを示す例示的な表である。ユーザは、識別済みの各ユーザが深度検知カメラの視野内を歩く(図中の42)と、画面に表示されうる個々のアイコンを選択または作成することができる。図4Bに示すように、息子が深度検知カメラの前を歩くと、青いスニーカ416が画面に表示され、息子が現実の世界で部屋を歩き回った経路をなぞる。同様に、娘が歩いた経路にピンクの足跡418が割り当てられ、イヌのスパーキーの歩いた経路には黒の足跡420が割り当てられうる。] 図4B
[0049] また、ユーザは、走る44などの動作のアニメーションも割り当てられうる。例えば、息子が走ると、アバターアニメーションが、青いスニーカ416から、スケートボード422に乗っている息子のアバターに自動的に切り替えられうる。同様に、娘が、コンピュータシステムによって走っていることが認識されると、娘のピンクの足跡418が、娘がカメラの視野内で走った時間と距離の間、インラインスケート424に変更されうる。スパーキーも、走った場所では黒い足跡420が赤い足跡422に変わりうる。追加のアニメーションタイプを構成することができ、これには、ユーザがシーン内の特定のオブジェクトとインタラクションするアニメーション、あるいは認識されたユーザが数人部屋にいるアニメーションなどがあるが、これらに限定されない。特定のアニメーションは、可能なアニメーションの例を提示するものであり、限定として解釈すべきではない。]
[0050] 図5Aは、本発明の一実施形態による、処理済みビデオ10a/bとして画面に表示される現実世界のシーン500を含む空間501を示す。現実世界のシーン500には、深度検知カメラ110の視野内に、イヌ502とソファー504が存在している。深度検知カメラ110は、コンピュータシステム120に画像データを提供する。これに対して、コンピュータシステム120は、処理済みビデオ10a/bを画面508に提供する。現実世界のシーン500では、イヌ502が、ソファー504の上にジャンプする。] 図5A
[0051] 図5Bは、本発明の実施形態による、例示的な処理済みビデオ10a/bを示す。処理済みビデオ10aは、イヌ502がソファー504の上を歩いたときにコンピュータシステムがイヌ502を経時的にトラッキングした結果を示す。図に示すように、イヌのアバター502aによって、足跡512によって作成される履歴経路が仮想世界ソファー504aの上に作成される。処理済みビデオ10aは、コンピュータシステムが、深度検知カメラによってキャプチャされたシーン110内の画像および深度データからイヌを認識した結果生成される。イヌ502をコンピュータシステムに認識させるために定義する一環として、ユーザは、足跡512のアニメーションをイヌ502と関連させて保存しうる。別の実施形態では、イヌのリアルタイムビデオ画像が、イヌのアバター502aの代わりに使用されてもよい。イヌ502がコンピュータシステムによって認識されない実施形態では、デフォルトのトラッキング記号またはアイコンの組がロードされ、処理済みビデオ10aとして表示されてもよい。] 図5B
[0052] 処理済みのビデオ10bは、本発明の一実施形態による、ソファー504とインタラクションしているイヌ502に特有の別のアニメーションを示す。この実施形態では、ユーザは、現実世界のイヌが現実世界のソファーの上を歩いた場所で、仮想世界のソファー504aが破れるようにアニメーションを構成している。上で説明したように、コンピュータシステムは、深度検知カメラの前で行われたユーザの動作のログすなわち履歴経路を作成し、これが再生および保存されうる。この場合、ユーザは、コンピュータシステムに、シーンを監視させ、現実世界のイヌの動きを再生させうる。簡単にするために、処理済みのビデオ10a/bは、イヌがソファーにジャンプする前にはトラッキングしたイヌの動きは表示しない。しかし、各種実施形態では、ログに記録されたアニメーションによってイヌの動きをトラッキングして、ソファーの破れ目と、地面の上のさまざまな足跡とを示すコマ撮りビデオを作成することが可能である。]
[0053] 図6は、本発明の一実施形態による、現実世界のシーン600と、現実世界のシーン600が処理済みビデオ10cとして画面に表示される様子とを示す。現実世界のシーン600では、深度検知カメラ110の前をユーザ602が走っている。深度検知カメラ110は、走っているユーザ602のビデオ画像をキャプチャし、これをコンピュータシステム120に送信して処理させる。処理済みビデオデータが、コンピュータシステム608から画面604に送信され、処理済みビデオ10cとして表示される。処理済みビデオ10cの詳細図には、ユーザ602を表すアバター602’が存在する。また、詳細図には、ユーザ602が走るのに対応させて、アバター602’のアニメーションも表示されている。一実施形態では、アニメーションは、スピード感を伝えるために、アバター602’のモーションブラー610を有する。別の実施形態では、走行が検出される前にアバター602’が立っていた位置に、吹き出し612が表示される。別の実施形態では、走行に対応して、アバター602’の靴または足の上に炎のアニメーションが表示されてもよい。一実施形態では、図5A〜6で説明した履歴経路およびアニメーションが、再生のためにコンピュータシステムに関連するメモリに保存されうる。一部の実施形態では、メモリは、例えばハードディスクドライブまたは他の不揮発性メモリなどのローカルストレージ装置でもよい。別の実施形態では、履歴経路およびアニメーションが、インターネットを介してリモートストレージにアップロードされてもよい。] 図5A 図5B 図6
[0054] 図7は、認識されたオブジェクトの識別およびトラッキングを改善するために、点トラッキングを適用するための操作を示す例示的なフローチャートである。操作700は、深度検知カメラを使用して、シーンの第1の画像をキャプチャする。操作702は、深度検知カメラを使用して、シーンの第2の画像をキャプチャする。この目的は静止オブジェクトを識別することにあるため、第1の画像と第2の画像のキャプチャ間隔の長さが変わりうる。一部の実施形態では、画像が、1秒の数分の1または数秒おきにサンプリングされても、別の実施形態では、画像が、数分、数時間または数日おきにサンプリングされてもよい。操作704は、第1の画像と第2の画像を比較することによって、シーン内の静止オブジェクトを決定するために使用される。この比較は、第1の画像内の識別された点を、第2の画像の対応する点と突き合わせようとするものである。識別された点が第1の画像と第2の画像の間で移動しなかった場合、この点は、静止していると決定されうる。一実施形態では、深度検知カメラは、画像を定期的にサンプリングして、静止オブジェクトを継続的に更新し、計算オーバーヘッドを低下させる。操作706は、シーン内の静止オブジェクトのモデルを作成するために、シーン内の識別された静止オブジェクトの固定点を関連付ける。操作708は、深度検知カメラの視野内でのオブジェクトのトラッキングおよび識別を補助するために、関連付けた固定点をメモリに記憶する。] 図7
[0055] 図8は、本発明の一実施形態による、点トラッキングを示すシーン800の例示的な図である。シーン800には、コンピュータシステム120に画像データを提供する深度検知カメラ110が含まれている。コンピュータシステム120は、画像データを処理し、画面802に表示させるための処理済みビデオを提供する。シーンには、静止オブジェクト(例えばソファー806およびランプ812)が含まれる。一実施形態では、コンピュータシステム810は、深度検知カメラ800によってキャプチャされた2つの画像を比較することによって、シーン800内のどのオブジェクトが静止しているかを決定しうる。コンピュータシステム120は、第1の画像内の点のうち、第2の画像で移動しなかったものを識別することが可能なソフトウェアを実行しうる。移動しない点が、静止点として特定されうる。図8では、静止点808がソファー806の上で識別され、静止点814がランプ812の上で識別されている。また、コンピュータシステム120は、シーン800内のオブジェクトの相対位置関係、いわゆるポジショニング、を定義するために、静止点を相関させうる。コンピュータシステム120は、既知の相対位置によって、深度検知カメラ110からの画像データをより効率的に処理して、シーン800内で動いているユーザなどの現実世界のオブジェクトを表すアバターを、より高速にレンダリングすることが可能となる。] 図8
[0056] 別の実施形態では、画像および深度データと共に点トラッキングにより、静止オブジェクトに対して、部分ワイヤフレームまたはスケルトンを作成できるようになる。例えば、ソファー806に関連する静止点808を使用して、ソファー806の部分ワイヤフレームモデルが作成されうる。ユーザが、現実のソファー806の画像および深度データから作成される仮想ソファーを変更およびカスタマイズできるようにするために、テクスチャーマップがワイヤフレームモデルに適用されうる。例えば、ユーザは、ソファーの材料を、織物または布、レザー、合成繊維材料にわたる任意の種類に変更することができる。どのシーンのどの静止オブジェクトにもテクスチャーマップを適用することができ、このようなオブジェクトには、シーン800の壁およびランプ812などがあるが、これらに限られない。ユーザは、深度検知カメラ110で部屋をスキャンして、現実世界の部屋の画像および深度データをキャプチャし、次に、現実世界の部屋の仮想世界表現をカスタマイズしうる。画像および深度データを使用して、壁の色を変更したり、あるいは壁紙または木のパネルなどのテクスチャがつけられた壁装材を含むさまざまなタイプの壁装材を適用することができる。]
[0057] 図9は、本発明の一実施形態による、ユーザ定義コントローラを作成するために動的三次元オブジェクトマッピングを使用可能なコンピュータシステムである、ソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスの全体的なシステムアーキテクチャを模式的に示す。システムユニット1000は、システムユニット1000に接続可能なさまざまな周辺機器を備える。システムユニット1000は、Cellプロセッサ1028、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット1026、専用のビデオランダムアクセスメモリ(VRAM)ユニット1032を有するReality Synthesizerグラフィックユニット1030、およびI/Oブリッジ1034を備える。また、システムユニット1000は、I/Oブリッジ1034を介してアクセス可能な、ディスク1040aおよび着脱可能なスロットインハードディスクドライブ(HDD)1036から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ1040も備える。任意選択で、システムユニット1000は、同様にI/Oブリッジ1034を介してアクセス可能な、コンパクトフラッシュ(登録商標)メモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ1038も備える。] 図9
[0058] また、I/Oブリッジ1034は、6つのユニバーサルシリアルバス(USB)2.0ポート1024、ギガビットイーサネット(登録商標)ポート1022、IEEE 802.11b/g無線ネットワーク(Wi-Fi)ポート1020、および最大7つのブルートゥース接続に対応可能なブルートゥース(登録商標)無線リンクポート1018にも接続している。]
[0059] 動作時に、I/Oブリッジ1034は、1つ以上のゲームコントローラ1002からのデータを含む、全ての無線、USB、およびイーサネット(登録商標)のデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ1034はブルートゥースリンクを介してゲームコントローラ1002からデータを受信して、これをCellプロセッサ1028に転送し、Cellプロセッサ1028が適宜ゲームの現在の状態を更新する。]
[0060] また、無線、USB、およびイーサネット(登録商標)の各ポートを介して、ゲームコントローラ1002のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン1004、キーボード1006、マウス1008、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス1010、EyeToy(登録商標)ビデオカメラ1012などのビデオカメラ、マイクロフォンヘッドセット1014などがある。このため、これらの周辺機器は、原則としてシステムユニット1000に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス1010はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット1014はブルートゥースリンクを介して通信しうる。]
[0061] これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。]
[0062] 更に、USBポート1024を介して旧式メモリカードリーダ1016をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)で用いられていたタイプのメモリカード1048の読み出しが可能となる。]
[0063] 本実施形態では、ゲームコントローラ1002は、ブルートゥースリンクを介してシステムユニット1000と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ1002が、USBポートに接続されてもよく、これにより、ゲームコントローラ1002のバッテリに充電するための電力も供給する。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、各軸の並進運動および回転に対応する6自由度の移動を感知する。したがって、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意選択で、プレイステーションポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーションポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。ほかの代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。]
[0064] また、リモコン1004も、ブルートゥースリンクを介してシステムユニット1000と無線通信するように動作可能である。リモコン1004は、ブルーレイディスクBD−ROMリーダ1040の操作、およびディスクの内容の閲覧のために適した制御を備える。]
[0065] ブルーレイディスクBD−ROMリーダ1040は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ1040は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ1040は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。]
[0066] システムユニット1000は、Reality Synthesizerグラフィックユニット1030を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ1044および1つ以上のスピーカ1046を備えた表示および音声出力装置1042(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ1050は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ1052は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース(HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。]
[0067] 音声処理(生成、デコードなど)はCellプロセッサ1028によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードに対応している。]
[0068] 本実施形態では、ビデオカメラ1012は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット1000によるデコードのために、イントラ画像ベースのMPEG標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット1000から受け取ると、発光するように配置されている。ビデオカメラ1012の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット1000にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。]
[0069] 一般に、システムユニット1000の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、デバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを当業者は理解するであろう。]
[0070] 実施形態には、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを案内するために深度データをキャプチャが含まれてもよい。実施形態において、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを案内するために深度データをキャプチャしてもよい。オブジェクトは、人物が保持しているオブジェクトであっても、人物の手であってもよい。本明細書では、「深度カメラ」および「三次元カメラ」との用語は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との用語は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。]
[0071] 三次元像の最近の進歩により、リアルタイムのインタラクティブなコンピュータアニメーションの可能性が広がっている。より詳細には、新しい「深度カメラ」は、通常の二次元のビデオ像に加えて、第3の次元をキャプチャおよびマップする能力を提供することができる。新しい深度データによって、本発明の各種実施形態は、ほかのオブジェクトの背後など、ビデオシーン内のさまざまな位置にコンピュータが生成したオブジェクトを、リアルタイムで配置することが可能となる。]
[0072] 更に、本発明の各種実施形態は、リアルタイムのインタラクティブなゲーム体験をユーザに提供する。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトと、リアルタイムでインタラクトすることができる。更に、ユーザのゲーム体験をよりリアルにするために、ビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服の上にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは、自分のリビングルームでインタラクティブなゲーム環境を体験することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。]
[0073] また、本発明の各種実施形態は、分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。
また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組合せに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。]
[0074] 上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。]
[0075] 上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースのプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。]
[0076] また、本発明は、計算機可読メディア上の計算機可読コードとして実施されてもよい。計算機可読メディアは、電磁搬送波を含め、コンピュータシステムによって後から読み取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。計算機可読メディアの例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読メディアは、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。]
[0077] 上記に、本発明を明確に理解できるように多少詳細に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。]
权利要求:

請求項1
1つ以上のメディアソースを含む空間内で識別およびトラッキングされるユーザに対して事前定義された特権を自動的に適用するためのコンピュータ実装方法であって、(a)深度検知カメラによってユーザを識別およびトラッキングするためのデータを含むユーザプロファイルを定義して、メモリに保存するステップと、(b)前記ユーザプロファイルに対して特定のメディアへのアクセスのレベルを定義する特権を定義して、前記メモリに保存するステップと、(c)画像および深度データを生成するために前記深度検知カメラを使用して前記空間内でシーンをキャプチャするステップと、(d)前記画像および深度データを使用して前記シーン内で前記ユーザを識別するステップと、(e)前記ユーザが前記シーン内で識別およびトラッキングされるときに、前記ユーザに対して1つ以上のメディアソースのうちの選択されたコンテンツへのアクセスが許可されるように、前記定義済みの特権を前記1つ以上のメディアソースに自動的に適用するステップと、を有する方法。
請求項2
前記シーンをキャプチャするステップは、移動オブジェクトに着目するように静止オブジェクトをフィルタリングするステップを有し、移動オブジェクトに着目することは、前記シーン内で頭部のオブジェクトが見つかったかどうかを判定するステップと、前記画像および深度データを使用して前記頭部の顔の特徴を分析するステップと、前記識別された顔の特徴が前記ユーザに対応するかどうかを判定するステップと、前記ユーザプロファイルに対して特定のメディアへのアクセスのレベルを定義する前記特権を適用するステップと、を有する請求項1に記載の方法。
請求項3
トラッキングするステップは、前記シーン内で前記ユーザの動きを追跡することを有し、前記追跡は識別された顔の特徴が前記ユーザに対応するかどうかの判定を補助する請求項2に記載の方法。
請求項4
前記深度データは、前記ユーザの物理的な特徴の相対三次元位置を識別するために使用される請求項2に記載の方法。
請求項5
前記シーン内で前記頭部のオブジェクトが見つかったと判定された場合、前記静止オブジェクトの前記深度データが前記シーンから減算される請求項2に記載の方法。
請求項6
前記シーン内に複数のユーザが見つかったかどうかを判定するステップと、複数のユーザが見つかった場合、最も制限の少ないユーザプロファイルに関連する特権を適用するステップと、を更に有する請求項1に記載の方法。
請求項7
前記1つ以上のメディアソースは、マルチメディアコンテンツを提供するデバイスを含む請求項1に記載の方法。
請求項8
前記マルチメディアコンテンツは、前記空間内に存在するディスプレイ画面に一部提示される請求項7に記載の方法。
請求項9
事前定義されたコンピュータ生成効果を、現実世界のオブジェクトの仮想世界表現に自動的に適用するために、前記現実世界のオブジェクトを識別およびトラッキングするためのコンピュータ実装方法であって、(a)深度検知カメラによって前記ユーザを識別およびトラッキングするためのデータを含むユーザプロファイルを定義して、メモリに保存するステップと、(b)前記ユーザプロファイルに関連し、仮想世界シーンに一体化されるアニメーションを定義して、前記メモリに保存するステップと、(c)前記深度検知カメラを使用してシーンをキャプチャするステップと、(d)前記深度検知カメラを使用して前記シーン内で前記ユーザを識別するステップと、(e)ディスプレイ画面が前記一体化されたアニメーションを表示するように、前記識別およびトラッキングされたユーザに基づいて前記定義したアニメーションを自動的に適用するステップと、を有する方法。
請求項10
前記シーンをキャプチャするステップは、移動オブジェクトに着目するように静止オブジェクトをフィルタリングするステップを有し、移動オブジェクトに着目することは、前記シーン内で移動オブジェクトに着目するステップと、前記画像および深度データを使用して前記移動オブジェクトの特徴を分析するステップと、前記移動オブジェクトが前記ユーザに対応するかどうかを判定するステップと、を有する請求項9に記載の方法。
請求項11
前記ユーザは人間またはペットのいずれかである請求項10に記載の方法。
請求項12
前記ユーザをトラッキングするステップは、経時的な動きと、前記動きに関連する前記アニメーションとを識別する前記ユーザの履歴経路を表示するステップを有する請求項11に記載の方法。
請求項13
前記履歴経路をストレージに保存するステップと、前記履歴経路の再生を有効にするステップと、を更に有する請求項12に記載の方法。
請求項14
前記アニメーションは、前記キャプチャされた深度データに基づいて、前記シーン内で見つかったオブジェクトの輪郭に適用される請求項9に記載の方法。
請求項15
ユーザによって前記アニメーションをあらかじめ選択するステップを更に有する請求項9に記載の方法。
請求項16
前記識別されたユーザに基づいて、マルチメディアコンテンツが、前記アニメーションと共にディスプレイ画面に提示される請求項9に記載の方法。
請求項17
シーンをキャプチャするステップは、点トラッキングを使用して前記シーン内で静止オブジェクトを定義する請求項9に記載の方法。
請求項18
前記ユーザのトラッキングは、相対的な位置、方向および速度の識別を含む請求項9に記載の方法。
請求項19
前記深度データは静止オブジェクト上の点を識別するために使用され、前記点は前記シーン内で見つかったオブジェクトの輪郭を描画するために使用される請求項9に記載の方法。
請求項20
現実世界の空間内で現実世界のユーザを識別およびトラッキングするためのコンピュータ実装方法であって、(a)前記現実世界のユーザの物理的な特徴に関連し、深度検知カメラによってキャプチャされた画像および深度データを含むユーザプロファイルを定義するステップと、(b)前記深度検知カメラを使用してシーンの画像および深度データをキャプチャするステップと、(c)前記シーン内で移動オブジェクトを識別するステップと、(d)画像および深度データを使用して、前記移動オブジェクト内の頭部にロックオンするステップと、(e)前記頭部の前記画像および深度データをリアルタイムで分析するステップと、を有し、前記分析では、前記頭部の画像および深度データと、物理的な特徴に関連するユーザプロファイルの画像および深度データとの比較が行われ、前記ユーザプロファイルの画像および深度データが、前記頭部の画像および深度データと実質的に一致する場合、ユーザが識別される方法。
請求項21
ユーザプロファイルを定義するステップは、(a)深度検知カメラを使用してスキャンを開始するステップと、(b)前記人体の特定の部分に前記スキャンを集中させるステップと、(c)前記人体の前記特定の部分の画像および深度データを収集するステップと、(d)前記人間体の前記特定の部分の三次元モデルを生成するために前記収集した画像および深度データを処理するステップと、(e)前記三次元モデルをメモリに保存するステップと、を有し、前記三次元モデルは、ユーザプロファイルにも関連している請求項20に記載の方法。
請求項22
前記ユーザが識別されたときに前記ユーザプロファイルに関連するユーザ許可を適用するステップを更に有する請求項20に記載の方法。
請求項23
前記ユーザが識別されたときに前記ユーザプロファイルに関連するユーザアニメーションを適用するステップを更に有する請求項20に記載の方法。
类似技术:
公开号 | 公开日 | 专利标题
JP6538897B2|2019-07-03|空間感知を備えるゲーム機
US10409364B2|2019-09-10|Methods and systems tracking head mounted display | and calibrations for HMD headband adjustments
JP6408634B2|2018-10-17|頭部装着ディスプレイ
US10315105B2|2019-06-11|Multi-image interactive gaming device
TWI613462B|2018-02-01|用於呈現虛擬現實內容的具有與行動計算設備介接之介面的頭戴式設備(hmd)系統
JP6575974B2|2019-09-18|ヘッドマウントディスプレイの追跡システム
US10810798B2|2020-10-20|Systems and methods for generating 360 degree mixed reality environments
JP6438087B2|2018-12-12|System and method for transitioning between transmissive mode and non-transmissive mode in a head mounted display
JP6158406B2|2017-07-05|携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
US20190070498A1|2019-03-07|Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
KR102158004B1|2020-09-21|두부 장착형 시스템과 연관된 홉을 감소시키기 위한 시스템 및 방법
US9367126B2|2016-06-14|Interaction with an expanded information space on a cellular phone
US10203838B2|2019-02-12|Avatar personalization in a virtual environment
US20170209786A1|2017-07-27|Using a portable device to interact with a virtual space
CN105377117B|2018-08-10|基于用户的光学处方的头戴式显示器
JP6526054B2|2019-06-05|プライベート追跡ヘッドアップディスプレイとしての第2画面の使用
US10318230B2|2019-06-11|Methods and systems for social sharing head mounted display | content with a second screen
JP6700463B2|2020-05-27|ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
US10610778B2|2020-04-07|Gaming controller
CN103390287B|2018-08-28|用于增强现实的装置和方法
CN106659932B|2020-02-11|头戴式显示器中的传感刺激管理
US8465108B2|2013-06-18|Directed performance in motion capture system
CN106066634B|2020-08-25|选择用于3d打印的对象的设备和方法
EP2731080B1|2018-03-28|System and method of image rendering
US10532284B2|2020-01-14|Camera based safety mechanisms for users of head mounted displays
同族专利:
公开号 | 公开日
KR101335346B1|2013-12-05|
CN103258184B|2017-04-12|
CN103258184A|2013-08-21|
CN102016877A|2011-04-13|
US8840470B2|2014-09-23|
EP2257911A1|2010-12-08|
CN102016877B|2014-12-10|
JP5684577B2|2015-03-11|
EP2257911B1|2018-10-10|
US20090215533A1|2009-08-27|
KR20110030419A|2011-03-23|
WO2009108645A1|2009-09-03|
EP2257911A4|2013-10-09|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
JPH02224185A|1989-02-27|1990-09-06|O G Joho Syst Soken:Kk|Method and device for identifying person|
JP2000163600A|1998-11-18|2000-06-16|Sintec Co Ltd|顔の撮影/認識方法とその装置|
JP2004511870A|2000-10-10|2004-04-15|コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィKoninklijke Philips Electronics N.V.|画像に基づく認識を介した装置制御|
JP2003162732A|2001-11-28|2003-06-06|Casio Comput Co Ltd|Image output device, image output processing program, and image output method|
JP2005529548A|2002-06-07|2005-09-29|コーニンクレッカフィリップスエレクトロニクスエヌヴィKoninklijkePhilipsElectronicsN.V.|System and method for adapting the environmental nature of a local environment to the location in the local environment and the preference of a person|
JP2004126738A|2002-09-30|2004-04-22|Matsushita Electric Ind Co Ltd|3次元計測を用いた個人認証装置および認証方法|
JP2006502478A|2002-10-07|2006-01-19|テクニオンリサーチアンドディベロップメントファウンデーションリミテッド|三次元顔認識|
JP2005056213A|2003-08-06|2005-03-03|Matsushita Electric Ind Co Ltd|Information providing system, information providing server, and information providing method|
JP2007249317A|2006-03-14|2007-09-27|Dotcity Inc|ドットシティにおける生体認証システムとその認証手段|WO2014016992A1|2012-07-27|2014-01-30|Necソフト株式会社|3次元ユーザインタフェース装置及び3次元操作方法|
WO2014016986A1|2012-07-27|2014-01-30|Necソフト株式会社|3次元環境共有システム及び3次元環境共有方法|
WO2014016987A1|2012-07-27|2014-01-30|Necソフト株式会社|3次元ユーザインタフェース装置及び3次元操作方法|
CN104349095A|2013-08-09|2015-02-11|联想有限公司|一种图像调整方法、装置及电子设备|
JP2015144836A|2013-02-27|2015-08-13|株式会社スクウェア・エニックス|Video game processing apparatus and video game processing program|
JP2016509292A|2013-01-03|2016-03-24|メタ カンパニー|エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン|
US10252161B2|2013-02-27|2019-04-09|Kabushiki Kaisha Square Enix|Video game processing program and video game processing method|US3943277A|1969-02-20|1976-03-09|The United States Of America As Represented By The Secretary Of The Navy|Digital memory area correlation tracker|
US4313227A|1979-01-29|1982-01-26|Texas Instruments Incorporated|Light energy information transmission system|
US4263504A|1979-08-01|1981-04-21|Ncr Corporation|High density matrix code|
US4565999A|1983-04-01|1986-01-21|Prime Computer, Inc.|Light pencil|
US4558864A|1984-06-13|1985-12-17|Medwedeff Marion C|Handgrip exercising, computer game controller|
JPH06102980B2|1985-12-12|1994-12-14|スズキ株式会社|2サイクルエンジンの制御方法|
US4843568A|1986-04-11|1989-06-27|Krueger Myron W|Real time perception of and response to the actions of an unencumbered participant/user|
JPS6347616A|1986-08-15|1988-02-29|Hiroshi Kobayashi|Measurement of moving quantity|
WO1988005942A1|1987-02-04|1988-08-11|Mayo Foundation For Medical Education And Research|Joystick apparatus having six degrees freedom of motion|
US4802227A|1987-04-03|1989-01-31|American Telephone And Telegraph Company|Noise reduction processing arrangement for microphone arrays|
GB2206716A|1987-07-06|1989-01-11|Gen Electric Plc|Apparatus for monitoring the presence or movement of an object|
JP2720455B2|1988-05-12|1998-03-04|ヤマハ株式会社|フィンガスイッチ|
IT1219405B|1988-06-27|1990-05-11|Fiat Ricerche|Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia|
WO1990007162A1|1988-12-20|1990-06-28|Australian Meat And Live-Stock Research And Development Corporation|An optically readable coded target|
US5034986A|1989-03-01|1991-07-23|Siemens Aktiengesellschaft|Method for detecting and tracking moving objects in a digital image sequence having a stationary background|
US5055840A|1990-01-16|1991-10-08|Carroll Touch Incorporated|Infrared touch input device and light emitted activation circuit|
US5440326A|1990-03-21|1995-08-08|Gyration, Inc.|Gyroscopic pointer|
WO1991017522A1|1990-05-01|1991-11-14|Wang Laboratories, Inc.|Hands-free hardware keyboard|
US5111401A|1990-05-19|1992-05-05|The United States Of America As Represented By The Secretary Of The Navy|Navigational control system for an autonomous vehicle|
US5662111A|1991-01-28|1997-09-02|Cosman; Eric R.|Process of stereotactic optical navigation|
US5485273A|1991-04-22|1996-01-16|Litton Systems, Inc.|Ring laser gyroscope enhanced resolution system|
US5534917A|1991-05-09|1996-07-09|Very Vivid, Inc.|Video image based control system|
US5144594A|1991-05-29|1992-09-01|Cyber Scientific|Acoustic mouse system|
US5455685A|1991-09-04|1995-10-03|Fuji Photo Film Co., Ltd.|Video camera exposure control apparatus for controlling iris diaphragm and automatic gain control operating speed|
US5889670A|1991-10-24|1999-03-30|Immersion Corporation|Method and apparatus for tactilely responsive user interface|
US5444462A|1991-12-16|1995-08-22|Wambach; Mark L.|Computer mouse glove with remote communication|
US6772057B2|1995-06-07|2004-08-03|Automotive Technologies International, Inc.|Vehicular monitoring systems using image processing|
US5790834A|1992-08-31|1998-08-04|Intel Corporation|Apparatus and method using an ID instruction to identify a computer microprocessor|
JP3244798B2|1992-09-08|2002-01-07|株式会社東芝|動画像処理装置|
US7098891B1|1992-09-18|2006-08-29|Pryor Timothy R|Method for providing human input to a computer|
US5394168A|1993-01-06|1995-02-28|Smith Engineering|Dual-mode hand-held game controller|
US5335011A|1993-01-12|1994-08-02|Bell Communications Research, Inc.|Sound localization system for teleconferencing using self-steering microphone arrays|
JP3679426B2|1993-03-15|2005-08-03|マサチューセッツ・インスティチュート・オブ・テクノロジーMassachusettsInstituteOfTechnology|画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム|
US5677710A|1993-05-10|1997-10-14|Apple Computer, Inc.|Recognition keypad|
US5297061A|1993-05-19|1994-03-22|University Of Maryland|Three dimensional pointing device monitored by computer vision|
US5581270A|1993-06-24|1996-12-03|Nintendo Of America, Inc.|Hotel-based video game and communication system|
US5959596A|1993-06-24|1999-09-28|Nintendo Co., Ltd.|Airline-based video game and communications system|
US5815411A|1993-09-10|1998-09-29|Criticom Corporation|Electro-optic vision system which exploits position and attitude|
US5473701A|1993-11-05|1995-12-05|At&T Corp.|Adaptive microphone array|
US6311214B1|1995-07-27|2001-10-30|Digimarc Corporation|Linking of computers based on optical sensing of digital data|
JP2552427B2|1993-12-28|1996-11-13|コナミ株式会社|テレビ遊戯システム|
FR2714502A1|1993-12-29|1995-06-30|Philips Laboratoire Electroniq|Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.|
US5900863A|1995-03-16|1999-05-04|Kabushiki Kaisha Toshiba|Method and apparatus for controlling computer without touching input device|
JPH086708A|1994-04-22|1996-01-12|Canon Inc|表示装置|
US5543818A|1994-05-13|1996-08-06|Sony Corporation|Method and apparatus for entering text using an input device having a small number of keys|
JPH07311568A|1994-05-17|1995-11-28|Sega Enterp Ltd|画像出力方法および装置|
US5846086A|1994-07-01|1998-12-08|Massachusetts Institute Of Technology|System for human trajectory learning in virtual environments|
US5563988A|1994-08-01|1996-10-08|Massachusetts Institute Of Technology|Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment|
US5641319A|1994-08-10|1997-06-24|Lodgenet Entertainment Corporation|Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer|
GB2301514B|1994-12-01|1999-06-09|Namco Ltd|Apparatus and method for image synthesization|
JP3270643B2|1994-12-22|2002-04-02|キヤノン株式会社|指示位置検出方法及び装置|
US5929444A|1995-01-31|1999-07-27|Hewlett-Packard Company|Aiming device using radiated energy|
US5568928A|1995-02-01|1996-10-29|Exertron, Inc.|Video game controller for use with an exercise apparatus|
US5638228A|1995-02-14|1997-06-10|Iomega Corporation|Retroreflective marker for data storage cartridge|
US5930741A|1995-02-28|1999-07-27|Virtual Technologies, Inc.|Accurate, rapid, reliable position sensing using multiple sensing technologies|
US5583478A|1995-03-01|1996-12-10|Renzi; Ronald|Virtual environment tactile system|
JP3777650B2|1995-04-28|2006-05-24|松下電器産業株式会社|インターフェイス装置|
KR19990008158A|1995-04-28|1999-01-25|모리시타요우이치|인터페이스 장치|
US5706364A|1995-04-28|1998-01-06|Xerox Corporation|Method of producing character templates using unsegmented samples|
US5913727A|1995-06-02|1999-06-22|Ahdoot; Ned|Interactive movement and contact simulation game|
US5649021A|1995-06-07|1997-07-15|David Sarnoff Research Center, Inc.|Method and system for object detection for instrument control|
IL114278A|1995-06-22|2010-06-16|Microsoft Internat Holdings B|Camera and method|
CN1253636A|1995-06-22|2000-05-17|3Dv系统有限公司|远心光阑3维照相机及方法|
AT191282T|1995-07-26|2000-04-15|Tegic Communications Inc|System zur unterdrückung der vieldeutigkeit in einer verringerten tastatur|
US7164413B2|1999-05-19|2007-01-16|Digimarc Corporation|Enhanced input peripheral|
US5768415A|1995-09-08|1998-06-16|Lucent Technologies Inc.|Apparatus and methods for performing electronic scene analysis and enhancement|
US5611731A|1995-09-08|1997-03-18|Thrustmaster, Inc.|Video pinball machine controller having an optical accelerometer for detecting slide and tilt|
US5850222A|1995-09-13|1998-12-15|Pixel Dust, Inc.|Method and system for displaying a graphic image of a person modeling a garment|
US5818424A|1995-10-19|1998-10-06|International Business Machines Corporation|Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space|
US6281930B1|1995-10-20|2001-08-28|Parkervision, Inc.|System and method for controlling the field of view of a camera|
US5963250A|1995-10-20|1999-10-05|Parkervision, Inc.|System and method for controlling the field of view of a camera|
US5719561A|1995-10-25|1998-02-17|Gilbert R. Gonzales|Tactile communication device and method|
JPH09128141A|1995-11-07|1997-05-16|Sony Corp|制御装置および制御方法|
US6282362B1|1995-11-07|2001-08-28|Trimble Navigation Limited|Geographical position/image digital recording and display system|
US5870100A|1995-11-22|1999-02-09|Compaq Computer Corporation|Filling of graphical regions|
EP0864145A4|1995-11-30|1998-12-16|Virtual Technologies Inc|Tactile feedback man-machine interface device|
US6049619A|1996-02-12|2000-04-11|Sarnoff Corporation|Method and apparatus for detecting moving objects in two-and three-dimensional scenes|
RU2069885C1|1996-03-01|1996-11-27|Йелстаун Корпорейшн Н.В.|Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления|
JPH09244793A|1996-03-04|1997-09-19|Alps Electric Co Ltd|入力装置|
CN100352532C|1996-03-05|2007-12-05|世嘉企业股份有限公司|操作输入装置和电子装置|
JP3920348B2|1996-04-02|2007-05-30|コグネックスコーポレイション|平坦な鏡面基板の指標を観察する画像形成装置|
US5937081A|1996-04-10|1999-08-10|O'brill; Michael R.|Image composition system and method of using same|
US5923318A|1996-04-12|1999-07-13|Zhai; Shumin|Finger manipulatable 6 degree-of-freedom input device|
US5917493A|1996-04-17|1999-06-29|Hewlett-Packard Company|Method and apparatus for randomly generating information for subsequent correlating|
US5881366A|1996-05-01|1999-03-09|Logitech, Inc.|Wireless peripheral interface|
US6516466B1|1996-05-02|2003-02-04|Vincent C. Jackson|Method and apparatus for portable digital entertainment system|
US6151009A|1996-08-21|2000-11-21|Carnegie Mellon University|Method and apparatus for merging real and synthetic images|
US6400374B2|1996-09-18|2002-06-04|Eyematic Interfaces, Inc.|Video superposition system and method|
US5930383A|1996-09-24|1999-07-27|Netzer; Yishay|Depth sensing camera systems and methods|
US5832931A|1996-10-30|1998-11-10|Photogen, Inc.|Method for improved selectivity in photo-activation and detection of molecular diagnostic agents|
NL1004648C2|1996-11-11|1998-05-14|Johan Michiel Schaaij|Computerspelsysteem.|
US5914723A|1996-12-30|1999-06-22|Sun Microsystems, Inc.|Method and system for converting images in computer systems|
US6243491B1|1996-12-31|2001-06-05|Lucent Technologies Inc.|Methods and apparatus for controlling a video system with visually recognized props|
US6021219A|1997-01-07|2000-02-01|Lucent Technologies Inc.|Methods and apparatus for distinguishing among several visual patterns|
US5850473A|1997-01-07|1998-12-15|Lucent Technologies Inc.|Method and apparatus for compensating for color variation in a video system|
US5796354A|1997-02-07|1998-08-18|Reality Quest Corp.|Hand-attachable controller with direction sensing|
US5993314A|1997-02-10|1999-11-30|Stadium Games, Ltd.|Method and apparatus for interactive audience participation by audio command|
US6009210A|1997-03-05|1999-12-28|Digital Equipment Corporation|Hands-free interface to a virtual reality environment using head tracking|
US6327073B1|1997-03-07|2001-12-04|3Dv Systems, Ltd.|Opto-electronic shutter|
US6061055A|1997-03-21|2000-05-09|Autodesk, Inc.|Method of tracking objects with an imaging device|
US6144367A|1997-03-26|2000-11-07|International Business Machines Corporation|Method and system for simultaneous operation of multiple handheld control devices in a data processing system|
US8120652B2|1997-04-02|2012-02-21|Gentex Corporation|System for controlling vehicle equipment|
US6587573B1|2000-03-20|2003-07-01|Gentex Corporation|System for controlling exterior vehicle lights|
JP3009633B2|1997-04-03|2000-02-14|コナミ株式会社|画像装置、画像表示方法および記録媒体|
US6215898B1|1997-04-15|2001-04-10|Interval Research Corporation|Data processing system and method|
CN1143528C|1997-04-23|2004-03-24|汤姆森消费电子有限公司|根据所显示信息的区域和内容控制视频电平|
US6809776B1|1997-04-23|2004-10-26|Thomson Licensing S.A.|Control of video level by region and content of information displayed|
US6428411B1|1997-05-02|2002-08-06|Konami Co., Ltd.|Volleyball video game system|
NO304715B1|1997-05-06|1999-02-01|Dimensions As|FremgangsmÕte ved bildebehandling|
JP3183632B2|1997-06-13|2001-07-09|株式会社ナムコ|情報記憶媒体及び画像生成装置|
US6075895A|1997-06-20|2000-06-13|Holoplex|Methods and apparatus for gesture recognition based on templates|
US6094625A|1997-07-03|2000-07-25|Trimble Navigation Limited|Augmented vision for survey work and machine control|
JP3997566B2|1997-07-15|2007-10-24|ソニー株式会社|描画装置、及び描画方法|
WO1999006956A1|1997-07-29|1999-02-11|Koninklijke Philips Electronics N.V.|Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system|
US6044181A|1997-08-01|2000-03-28|Microsoft Corporation|Focal length estimation method and apparatus for construction of panoramic mosaic images|
US6720949B1|1997-08-22|2004-04-13|Timothy R. Pryor|Man machine interfaces and applications|
US6297838B1|1997-08-29|2001-10-02|Xerox Corporation|Spinning as a morpheme for a physical manipulatory grammar|
US6031934A|1997-10-15|2000-02-29|Electric Planet, Inc.|Computer vision system for subject characterization|
AU1099899A|1997-10-15|1999-05-03|Electric Planet, Inc.|Method and apparatus for performing a clean background subtraction|
US6101289A|1997-10-15|2000-08-08|Electric Planet, Inc.|Method and apparatus for unencumbered capture of an object|
WO1999026198A2|1997-11-14|1999-05-27|National University Of Singapore|System and method for merging objects into an image sequence without prior knowledge of the scene in the image sequence|
JPH11154240A|1997-11-20|1999-06-08|Nintendo Co Ltd|取込み画像を用いて画像を作成するための画像作成装置|
US6166744A|1997-11-26|2000-12-26|Pathfinder Systems, Inc.|System for combining virtual images with real-world scenes|
US6677987B1|1997-12-03|2004-01-13|8×8, Inc.|Wireless user-interface arrangement and method|
US6762794B1|1997-12-03|2004-07-13|Canon Kabushiki Kaisha|Image pick-up apparatus for stereoscope|
US6195104B1|1997-12-23|2001-02-27|Philips Electronics North America Corp.|System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs|
WO1999035633A2|1998-01-06|1999-07-15|The Video Mouse Group|Human motion following computer mouse and game controller|
US6160540A|1998-01-12|2000-12-12|Xerox Company|Zoomorphic computer user interface|
US6134346A|1998-01-16|2000-10-17|Ultimatte Corp|Method for removing from an image the background surrounding a selected object|
JP4195189B2|1998-02-08|2008-12-10|スリーディーヴィーシステムズリミテッド|大開口光画像シャッタ|
US6115052A|1998-02-12|2000-09-05|Mitsubishi Electric Information Technology Center America, Inc. |System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence|
US6175343B1|1998-02-24|2001-01-16|Anivision, Inc.|Method and apparatus for operating the overlay of computer-generated effects onto a live image|
US6037942A|1998-03-10|2000-03-14|Magellan Dis, Inc.|Navigation system character input device|
US6411392B1|1998-04-15|2002-06-25|Massachusetts Institute Of Technology|Method and apparatus for data hiding in printed images|
US6173059B1|1998-04-24|2001-01-09|Gentner Communications Corporation|Teleconferencing system with visual feedback|
US6593956B1|1998-05-15|2003-07-15|Polycom, Inc.|Locating an audio source|
US6473516B1|1998-05-22|2002-10-29|Asa Systems, Inc.|Large capacity steganography|
JP3646969B2|1998-05-25|2005-05-11|富士通株式会社|3次元画像表示装置|
JP3841132B2|1998-06-01|2006-11-01|株式会社ソニー・コンピュータエンタテインメント|入力位置検出装置及びエンタテインメントシステム|
FR2780176B1|1998-06-17|2001-01-26|Gabriel Guary|Pistolet de tir pour jeu video|
JP2000020163A|1998-06-30|2000-01-21|Sony Corp|情報処理装置|
US6504535B1|1998-06-30|2003-01-07|Lucent Technologies Inc.|Display techniques for three-dimensional virtual reality|
IL125221D0|1998-07-06|1999-03-12|Toy Control Ltd|Motion activation using passive sound source|
US7130454B1|1998-07-20|2006-10-31|Viisage Technology, Inc.|Real-time facial recognition and verification system|
US7121946B2|1998-08-10|2006-10-17|Cybernet Systems Corporation|Real-time head tracking system for computer games and other applications|
US20020036617A1|1998-08-21|2002-03-28|Timothy R. Pryor|Novel man machine interfaces and applications|
US6256398B1|1998-08-22|2001-07-03|Kenneth H. P. Chang|Encoding and decoding a message within an image|
US6621938B1|1998-09-18|2003-09-16|Fuji Photo Film Co., Ltd.|Image capture apparatus and method|
US6184863B1|1998-10-13|2001-02-06|The George Washington University|Direct pointing apparatus and method therefor|
DE19849515C1|1998-10-19|2000-12-28|Gerhard Wergen|Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens|
US6307568B1|1998-10-28|2001-10-23|Imaginarix Ltd.|Virtual dressing over the internet|
US6409602B1|1998-11-06|2002-06-25|New Millenium Gaming Limited|Slim terminal gaming system|
US6707487B1|1998-11-20|2004-03-16|In The Play, Inc.|Method for representing real-time motion|
JP2000172431A|1998-12-09|2000-06-23|Sony Corp|情報入力装置及びゲーム装置|
US6533420B1|1999-01-22|2003-03-18|Dimension Technologies, Inc.|Apparatus and method for generating and projecting autostereoscopic images|
US6309306B1|1999-03-03|2001-10-30|Disney Enterprises, Inc.|Interactive entertainment attraction using telepresence vehicles|
US7139767B1|1999-03-05|2006-11-21|Canon Kabushiki Kaisha|Image processing apparatus and database|
JP2000261752A|1999-03-05|2000-09-22|Hewlett Packard Co <Hp>|音声付き画像録画再生装置|
JP2000259856A|1999-03-09|2000-09-22|Nippon Telegr & Teleph Corp <Ntt>|3次元コンピュータグラフィックス表示方法及び装置|
US6323942B1|1999-04-30|2001-11-27|Canesta, Inc.|CMOS-compatible three-dimensional image sensor IC|
US6791531B1|1999-06-07|2004-09-14|Dot On, Inc.|Device and method for cursor motion control calibration and object selection|
JP2000350859A|1999-06-11|2000-12-19|Mr System Kenkyusho:Kk|マーカ配置方法及び複合現実感装置|
JP2000350865A|1999-06-11|2000-12-19|Mr System Kenkyusho:Kk|複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体|
JP2000356972A|1999-06-15|2000-12-26|Pioneer Electronic Corp|発光パネルの駆動装置及び方法|
US6952198B2|1999-07-06|2005-10-04|Hansen Karl C|System and method for communication with enhanced optical pointer|
US6819318B1|1999-07-23|2004-11-16|Z. Jason Geng|Method and apparatus for modeling via a three-dimensional image mosaic system|
US6545706B1|1999-07-30|2003-04-08|Electric Planet, Inc.|System, method and article of manufacture for tracking a head of a camera-generated image of a person|
US6417836B1|1999-08-02|2002-07-09|Lucent Technologies Inc.|Computer input device having six degrees of freedom for controlling movement of a three-dimensional object|
JP2001056742A|1999-08-19|2001-02-27|Alps Electric Co Ltd|入力装置|
US6556704B1|1999-08-25|2003-04-29|Eastman Kodak Company|Method for forming a depth image from digital image data|
DE69922706T2|1999-09-08|2005-12-08|3Dv Systems Ltd.|3d- bilderzeugungssystem|
WO2001022737A1|1999-09-17|2001-03-29|Nature Technology Co., Ltd.|Systeme de saisie d'images, processeur d'images et camera associee|
US6441825B1|1999-10-04|2002-08-27|Intel Corporation|Video token tracking system for animation|
JP3847058B2|1999-10-04|2006-11-15|任天堂株式会社|ゲームシステム及びそれに用いられるゲーム情報記憶媒体|
US6753849B1|1999-10-27|2004-06-22|Ken Curran & Associates|Universal remote TV mouse|
JP4403474B2|1999-12-09|2010-01-27|ソニー株式会社|触覚提示機構及びこれを用いた力触覚提示装置|
WO2001042930A1|1999-12-09|2001-06-14|Zephyr Media, Inc.|System and method for integration of a universally publicly accessible global network|
US6785329B1|1999-12-21|2004-08-31|Microsoft Corporation|Automatic video object extraction|
KR100384406B1|2000-01-24|2003-05-22| 베스트소프트|컴퓨터 프로그램 구동조작장치|
US20010056477A1|2000-02-15|2001-12-27|Mcternan Brennan J.|Method and system for distributing captured motion data over a network|
AU4328501A|2000-03-02|2001-09-12|Donnelly Corp|Video mirror systems incorporating an accessory module|
JP2001265275A|2000-03-16|2001-09-28|Olympus Optical Co Ltd|画像表示装置|
US6676522B2|2000-04-07|2004-01-13|Igt|Gaming system including portable game devices|
US6924787B2|2000-04-17|2005-08-02|Immersion Corporation|Interface for controlling a graphical image|
JP4020567B2|2000-05-15|2007-12-12|株式会社コナミデジタルエンタテインメント|ゲーム機およびそのゲーム環境設定ネットワークシステム|
WO2001091016A1|2000-05-25|2001-11-29|Realitybuy, Inc.|A real time, three-dimensional, configurable, interactive product display system and method|
US6970183B1|2000-06-14|2005-11-29|E-Watch, Inc.|Multimedia surveillance and monitoring system including network configuration|
US20020056114A1|2000-06-16|2002-05-09|Fillebrown Lisa A.|Transmitter for a personal wireless network|
TW527518B|2000-07-14|2003-04-11|Massachusetts Inst Technology|Method and system for high resolution, ultra fast, 3-D imaging|
US6795068B1|2000-07-21|2004-09-21|Sony Computer Entertainment Inc.|Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program|
US7227526B2|2000-07-24|2007-06-05|Gesturetek, Inc.|Video-based image control system|
AUPQ896000A0|2000-07-24|2000-08-17|Seeing Machines Pty Ltd|Facial image processing system|
WO2002008849A2|2000-07-24|2002-01-31|Herman Ehrenburg|Computer-compatible, color-coded manual input system|
US7039253B2|2001-07-24|2006-05-02|Casio Computer Co., Ltd.|Image display device, image display method, program, and projection system|
US20020094189A1|2000-07-26|2002-07-18|Nassir Navab|Method and system for E-commerce video editing|
JP3561463B2|2000-08-11|2004-09-02|コナミ株式会社|3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置|
JP4815661B2|2000-08-24|2011-11-16|ソニー株式会社|信号処理装置及び信号処理方法|
US7071914B1|2000-09-01|2006-07-04|Sony Computer Entertainment Inc.|User input device and method for interaction with graphic images|
WO2002061707A2|2000-09-08|2002-08-08|Honeywell International Inc.|Pilot internet practice system and methods|
US6884171B2|2000-09-18|2005-04-26|Nintendo Co., Ltd.|Video game distribution network|
US6748281B2|2000-09-29|2004-06-08|Gunilla Alsio|Wearable data input interface|
FR2814965A1|2000-10-11|2002-04-12|Janick Simeray|Ordinateur et jouets cooperants|
US7061507B1|2000-11-12|2006-06-13|Bitboys, Inc.|Antialiasing method and apparatus for video applications|
JP2002157607A|2000-11-17|2002-05-31|Canon Inc|画像生成システム、画像生成方法および記憶媒体|
AU2695602A|2000-11-22|2002-06-03|Leap Wireless Int Inc|Method and system for providing interactive services over a wireless communications network|
KR100385563B1|2000-12-01|2003-05-27|한국과학기술원|구동수단을 갖는 분광 광도계와 광도 측정방법|
US20040070565A1|2001-12-05|2004-04-15|Nayar Shree K|Method and apparatus for displaying images|
US6751338B1|2000-12-15|2004-06-15|Cognex Corporation|System and method of using range image data with machine vision tools|
US20020085097A1|2000-12-22|2002-07-04|Colmenarez Antonio J.|Computer vision-based wireless pointing system|
EP1371019A2|2001-01-26|2003-12-17|Zaxel Systems, Inc.|Real-time virtual viewpoint in simulated reality environment|
DE10103922A1|2001-01-30|2002-08-01|Physoptics Opto Electronic Gmb|Interaktives Datensicht- und Bediensystem|
US6741741B2|2001-02-01|2004-05-25|Xerox Corporation|System and method for automatically detecting edges of scanned documents|
US6789967B1|2001-02-02|2004-09-14|George Forester|Distal chording keyboard|
US20020134151A1|2001-02-05|2002-09-26|Matsushita Electric Industrial Co., Ltd.|Apparatus and method for measuring distances|
US6746124B2|2001-02-06|2004-06-08|Robert E. Fischer|Flashlight producing uniform high brightness|
US7116330B2|2001-02-28|2006-10-03|Intel Corporation|Approximating motion using a three-dimensional model|
US6931596B2|2001-03-05|2005-08-16|Koninklijke Philips Electronics N.V.|Automatic positioning of display depending upon the viewer's location|
GB2376397A|2001-06-04|2002-12-11|Hewlett Packard Co|Virtual or augmented reality|
US7259747B2|2001-06-05|2007-08-21|Reactrix Systems, Inc.|Interactive video display system|
JP2002369969A|2001-06-15|2002-12-24|Sun Corp|通信ゲーム用プログラム、アダプタおよびゲーム端末|
JP2003018604A|2001-07-04|2003-01-17|Matsushita Electric Ind Co Ltd|画像信号符号化方法、画像信号符号化装置および記録媒体|
US20030014212A1|2001-07-12|2003-01-16|Ralston Stuart E.|Augmented vision system using wireless communications|
JP3611807B2|2001-07-19|2005-01-19|コナミ株式会社|ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム|
KR20030009919A|2001-07-24|2003-02-05|삼성전자주식회사|관성 센서를 구비하는 컴퓨터 게임용 입력 장치|
US7148922B2|2001-08-02|2006-12-12|Olympus Optical Co., Ltd.|Electronic camera which detects flash influence on an image and controls white balance in accordance with the flash influence|
JP3442754B2|2001-08-10|2003-09-02|株式会社コナミコンピュータエンタテインメント東京|ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム|
US6709108B2|2001-08-31|2004-03-23|Adaptive Optics Associates, Inc.|Ophthalmic instrument with adaptive optic subsystem that measures aberrations of a human eye and that provides a view of compensation of such aberrations to the human eye|
KR100846761B1|2001-09-11|2008-07-16|삼성전자주식회사|포인터 표시방법, 그 포인팅 장치, 및 그 호스트 장치|
JP2003114640A|2001-10-04|2003-04-18|Nec Corp|プラズマディスプレイパネル及びその駆動方法|
JP4028708B2|2001-10-19|2007-12-26|株式会社コナミデジタルエンタテインメント|ゲーム装置及びゲームシステム|
US20030093591A1|2001-11-09|2003-05-15|David Hohl|System and method for fast data transfer to display driver|
FR2832892B1|2001-11-27|2004-04-02|Thomson Licensing Sa|Camera video d'effets speciaux|
US20030100363A1|2001-11-28|2003-05-29|Ali Guiseppe C.|Method and apparatus for inputting appearance of computer operator into a computer program|
KR20030048570A|2001-12-12|2003-06-25|한국전자통신연구원|부가적 버튼을 장착한 키패드 및 그의 작동방법|
US7106366B2|2001-12-19|2006-09-12|Eastman Kodak Company|Image capture system incorporating metadata to facilitate transcoding|
US7305114B2|2001-12-26|2007-12-04|Cognex Technology And Investment Corporation|Human/machine interface for a machine vision sensor and method for installing and operating the same|
US7436887B2|2002-02-06|2008-10-14|Playtex Products, Inc.|Method and apparatus for video frame sequence-based object tracking|
US6990639B2|2002-02-07|2006-01-24|Microsoft Corporation|System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration|
US20030160862A1|2002-02-27|2003-08-28|Charlier Michael L.|Apparatus having cooperating wide-angle digital camera system and microphone array|
KR20030075399A|2002-03-18|2003-09-26|주식회사 소프트로닉스|모션마우스 시스템 및 방법|
KR100812905B1|2002-03-27|2008-03-11|산요덴키가부시키가이샤|Stereoscopic image processing method, apparatus and computer readable recording medium|
US6847311B2|2002-03-28|2005-01-25|Motorola Inc.|Method and apparatus for character entry in a wireless communication device|
GB2388418A|2002-03-28|2003-11-12|Marcus James Eales|Input or pointing device with a camera|
US7006009B2|2002-04-01|2006-02-28|Key Energy Services, Inc.|Servicing system for wells|
US20030199324A1|2002-04-23|2003-10-23|Xiaoling Wang|Apparatus and a method for more realistic shooting video games on computers or similar devices using visible or invisible light|
JP2004021345A|2002-06-12|2004-01-22|Toshiba Corp|画像処理装置及びその方法|
US20030232649A1|2002-06-18|2003-12-18|Gizis Alexander C.M.|Gaming system and method|
US20040001082A1|2002-06-26|2004-01-01|Amir Said|System and method of interaction with a computer controlled image display system using a projected light source|
JP5109221B2|2002-06-27|2012-12-26|新世代株式会社|ストロボスコープを使った入力システムを備える情報処理装置|
CA2390072C|2002-06-28|2018-02-27|Adrian Gh Podoleanu|Optical mapping apparatus with adjustable depth resolution and multiple functionality|
US7227976B1|2002-07-08|2007-06-05|Videomining Corporation|Method and system for real-time facial image enhancement|
US20040017355A1|2002-07-24|2004-01-29|Youngtack Shim|Cursor control systems and methods|
US9474968B2|2002-07-27|2016-10-25|Sony Interactive Entertainment America Llc|Method and system for applying gearing effects to visual tracking|
US9393487B2|2002-07-27|2016-07-19|Sony Interactive Entertainment Inc.|Method for mapping movements of a hand-held controller to game commands|
US8313380B2|2002-07-27|2012-11-20|Sony Computer Entertainment America Llc|Scheme for translating movements of a hand-held controller into inputs for a system|
US8686939B2|2002-07-27|2014-04-01|Sony Computer Entertainment Inc.|System, method, and apparatus for three-dimensional input control|
US7854655B2|2002-07-27|2010-12-21|Sony Computer Entertainment America Inc.|Obtaining input for controlling execution of a game program|
US20060282873A1|2002-07-27|2006-12-14|Sony Computer Entertainment Inc.|Hand-held controller having detectable elements for tracking purposes|
US7391409B2|2002-07-27|2008-06-24|Sony Computer Entertainment America Inc.|Method and system for applying gearing effects to multi-channel mixed input|
US7760248B2|2002-07-27|2010-07-20|Sony Computer Entertainment Inc.|Selective sound source listening in conjunction with computer interactive processing|
US20070015559A1|2002-07-27|2007-01-18|Sony Computer Entertainment America Inc.|Method and apparatus for use in determining lack of user activity in relation to a system|
US7918733B2|2002-07-27|2011-04-05|Sony Computer Entertainment America Inc.|Multi-input game control mixer|
US10086282B2|2002-07-27|2018-10-02|Sony Interactive Entertainment Inc.|Tracking device for use in obtaining information for controlling game program execution|
US8073157B2|2003-08-27|2011-12-06|Sony Computer Entertainment Inc.|Methods and apparatus for targeted sound detection and characterization|
US7874917B2|2003-09-15|2011-01-25|Sony Computer Entertainment Inc.|Methods and systems for enabling depth and direction detection when interfacing with a computer program|
US7803050B2|2002-07-27|2010-09-28|Sony Computer Entertainment Inc.|Tracking device with sound emitter for use in obtaining information for controlling game program execution|
US7352359B2|2002-07-27|2008-04-01|Sony Computer Entertainment America Inc.|Method and system for applying gearing effects to inertial tracking|
US7850526B2|2002-07-27|2010-12-14|Sony Computer Entertainment America Inc.|System for tracking user manipulations within an environment|
US7623115B2|2002-07-27|2009-11-24|Sony Computer Entertainment Inc.|Method and apparatus for light input device|
US7102615B2|2002-07-27|2006-09-05|Sony Computer Entertainment Inc.|Man-machine interface using a deformable device|
US7627139B2|2002-07-27|2009-12-01|Sony Computer Entertainment Inc.|Computer image and audio processing of intensity and input devices for interfacing with a computer program|
US20060264260A1|2002-07-27|2006-11-23|Sony Computer Entertainment Inc.|Detectable and trackable hand-held controller|
US8797260B2|2002-07-27|2014-08-05|Sony Computer Entertainment Inc.|Inertially trackable hand-held controller|
US7783061B2|2003-08-27|2010-08-24|Sony Computer Entertainment Inc.|Methods and apparatus for the targeted sound detection|
US7039199B2|2002-08-26|2006-05-02|Microsoft Corporation|System and process for locating a speaker using 360 degree sound source localization|
US6917688B2|2002-09-11|2005-07-12|Nanyang Technological University|Adaptive noise cancelling microphone system|
US20040063480A1|2002-09-30|2004-04-01|Xiaoling Wang|Apparatus and a method for more realistic interactive video games on computers or similar devices|
EP1411461A1|2002-10-14|2004-04-21|STMicroelectronics Asia Pacific Pte Ltd.|User controlled device for sending control signals to an electric appliance, in particular user controlled pointing device such as mouse or joystick, with 3D-motion detection|
US6995666B1|2002-10-16|2006-02-07|Luttrell Clyde K|Cellemetry-operated railroad switch heater|
JP2004145448A|2002-10-22|2004-05-20|Toshiba Corp|端末装置、サーバ装置および画像加工方法|
US8206219B2|2002-10-30|2012-06-26|Nike, Inc.|Interactive gaming apparel for interactive gaming|
JP2006504504A|2002-10-30|2006-02-09|ナイキ・インコーポレーテッドNikeInc|対話型活動装置で使用する標的|
US20050037844A1|2002-10-30|2005-02-17|Nike, Inc.|Sigils for use with apparel|
US20040095327A1|2002-11-14|2004-05-20|Lo Fook Loong|Alphanumeric data input system and method|
US8012025B2|2002-12-13|2011-09-06|Applied Minds, Llc|Video game controller hub with control input reduction and combination schemes|
US7212308B2|2002-12-18|2007-05-01|Morgan Carol L|Interactive photo kiosk|
US20040140955A1|2003-01-21|2004-07-22|Metz Kristofer Erik|Input device for a computer and method of operation|
JP2004261236A|2003-02-20|2004-09-24|Konami Co Ltd|ゲームシステム|
JP3849654B2|2003-02-21|2006-11-22|株式会社日立製作所|投射型表示装置|
GB2398691B|2003-02-21|2006-05-31|Sony Comp Entertainment Europe|Control of data processing|
GB2398690B|2003-02-21|2006-05-10|Sony Comp Entertainment Europe|Control of data processing|
US7519186B2|2003-04-25|2009-04-14|Microsoft Corporation|Noise reduction systems and methods for voice applications|
US7379559B2|2003-05-28|2008-05-27|Trw Automotive U.S. Llc|Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system|
US6881147B2|2003-06-06|2005-04-19|Nyko Technologies, Inc.|Video game controller with integrated microphone and speaker|
TW571812U|2003-06-11|2004-01-11|Vision Electronics Co Ltd|Audio device for TV game machine|
DE60308342T2|2003-06-17|2007-09-06|Sony Ericsson Mobile Communications Ab|Verfahren und Vorrichtung zur Sprachaktivitätsdetektion|
US7116342B2|2003-07-03|2006-10-03|Sportsmedia Technology Corporation|System and method for inserting content into an image sequence|
JP2005046422A|2003-07-30|2005-02-24|Samii Kk|ゲーム機用コントローラ|
US8160269B2|2003-08-27|2012-04-17|Sony Computer Entertainment Inc.|Methods and apparatuses for adjusting a listening area for capturing sounds|
US7613310B2|2003-08-27|2009-11-03|Sony Computer Entertainment Inc.|Audio input system|
US8233642B2|2003-08-27|2012-07-31|Sony Computer Entertainment Inc.|Methods and apparatuses for capturing an audio signal based on a location of the signal|
US8139793B2|2003-08-27|2012-03-20|Sony Computer Entertainment Inc.|Methods and apparatus for capturing audio signals based on a visual image|
US7883415B2|2003-09-15|2011-02-08|Sony Computer Entertainment Inc.|Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion|
CA2544183A1|2003-10-28|2005-05-19|Welch Allyn, Inc.|Digital documenting ophthalmoscope|
US20050105777A1|2003-11-18|2005-05-19|Kozlowski William J.Jr.|Personalized multimedia summary|
US7734729B2|2003-12-31|2010-06-08|Amazon Technologies, Inc.|System and method for obtaining information relating to an item of commerce using a portable imaging device|
US7970147B2|2004-04-07|2011-06-28|Sony Computer Entertainment Inc.|Video game controller with noise canceling logic|
WO2005107911A1|2004-05-11|2005-11-17|Ssd Company Limited|エンターテインメント装置及びその動作方法|
US7296007B1|2004-07-06|2007-11-13|Ailive, Inc.|Real time context learning by software agents|
US7937243B2|2007-08-03|2011-05-03|Ailive, Inc.|Method and apparatus for non-disruptive embedding of specialized elements|
US7263462B2|2004-07-30|2007-08-28|Ailive, Inc.|Non-disruptive embedding of specialized elements|
US8190907B2|2004-08-11|2012-05-29|Sony Computer Entertainment Inc.|Process and apparatus for automatically identifying user of consumer electronics|
US7613610B1|2005-03-14|2009-11-03|Escription, Inc.|Transcription data extraction|
KR100630118B1|2005-04-21|2006-09-27|삼성전자주식회사|망간 광섬유 공유 시스템|
US8370639B2|2005-06-16|2013-02-05|Sensible Vision, Inc.|System and method for providing secure access to an electronic device using continuous facial biometrics|
US20070061413A1|2005-09-15|2007-03-15|Larsen Eric J|System and method for obtaining user information from voices|
US7927216B2|2005-09-15|2011-04-19|Nintendo Co., Ltd.|Video game system with wireless modular handheld controller|
US7620316B2|2005-11-28|2009-11-17|Navisense|Method and device for touchless control of a camera|
US7834850B2|2005-11-29|2010-11-16|Navisense|Method and system for object control|
DK1993687T3|2006-02-10|2012-08-27|Ippasa Llc|Konfigurerbart manuelt styreapparat|
US7809145B2|2006-05-04|2010-10-05|Sony Computer Entertainment Inc.|Ultra small microphone array|
US7545926B2|2006-05-04|2009-06-09|Sony Computer Entertainment Inc.|Echo and noise cancellation|
US7697700B2|2006-05-04|2010-04-13|Sony Computer Entertainment Inc.|Noise removal for electronic device with far field microphone on console|
US20070260517A1|2006-05-08|2007-11-08|Gary Zalewski|Profile detection|
US20070261077A1|2006-05-08|2007-11-08|Gary Zalewski|Using audio/visual environment to select ads on game platform|
US20090221368A1|2007-11-28|2009-09-03|Ailive Inc.,|Method and system for creating a shared game space for a networked game|
US8419545B2|2007-11-28|2013-04-16|Ailive, Inc.|Method and system for controlling movements of objects in a videogame|
EP2050067A1|2006-08-03|2009-04-22|Alterface S.A.|Method and device for identifying and extracting images of multiple users, and for recognizing user gestures|
JP4481280B2|2006-08-30|2010-06-16|富士フイルム株式会社|画像処理装置、及び画像処理方法|
US8277316B2|2006-09-14|2012-10-02|Nintendo Co., Ltd.|Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting|
GB0622451D0|2006-11-10|2006-12-20|Intelligent Earth Ltd|Object position and orientation detection device|
US7636697B1|2007-01-29|2009-12-22|Ailive Inc.|Method and system for rapid evaluation of logical expressions|
US7636645B1|2007-06-18|2009-12-22|Ailive Inc.|Self-contained inertial navigation system for interactive control using movable controllers|
US8655622B2|2008-07-05|2014-02-18|Ailive, Inc.|Method and apparatus for interpreting orientation invariant motion|
US8866821B2|2009-01-30|2014-10-21|Microsoft Corporation|Depth map movement tracking via optical flow and velocity prediction|US9486703B2|2007-01-31|2016-11-08|Broadcom Corporation|Mobile communication device with game application for use in conjunction with a remote mobile communication device and methods for use therewith|
US8223736B2|2007-01-31|2012-07-17|Broadcom Corporation|Apparatus for managing frequency use|
US8280303B2|2007-01-31|2012-10-02|Broadcom Corporation|Distributed digital signal processor|
US8289944B2|2007-01-31|2012-10-16|Broadcom Corporation|Apparatus for configuration of wireless operation|
US20090011832A1|2007-01-31|2009-01-08|Broadcom Corporation|Mobile communication device with game application for display on a remote monitor and methods for use therewith|
US8125950B2|2007-01-31|2012-02-28|Broadcom Corporation|Apparatus for wirelessly managing resources|
US8116294B2|2007-01-31|2012-02-14|Broadcom Corporation|RF bus controller|
US8204075B2|2007-01-31|2012-06-19|Broadcom Corporation|Inter-device wireless communication for intra-device communications|
US8200156B2|2007-01-31|2012-06-12|Broadcom Corporation|Apparatus for allocation of wireless resources|
US8239650B2|2007-01-31|2012-08-07|Broadcom Corporation|Wirelessly configurable memory device addressing|
US8254319B2|2007-01-31|2012-08-28|Broadcom Corporation|Wireless programmable logic device|
US20080320293A1|2007-01-31|2008-12-25|Broadcom Corporation|Configurable processing core|
US8438322B2|2007-01-31|2013-05-07|Broadcom Corporation|Processing module with millimeter wave transceiver interconnection|
US8238275B2|2007-01-31|2012-08-07|Broadcom Corporation|IC with MMW transceiver communications|
US8121541B2|2007-01-31|2012-02-21|Broadcom Corporation|Integrated circuit with intra-chip and extra-chip RF communication|
US8690670B2|2007-06-14|2014-04-08|Harmonix Music Systems, Inc.|Systems and methods for simulating a rock band experience|
US8678896B2|2007-06-14|2014-03-25|Harmonix Music Systems, Inc.|Systems and methods for asynchronous band interaction in a rhythm action game|
US8430750B2|2008-05-22|2013-04-30|Broadcom Corporation|Video gaming device with image identification|
US20090017910A1|2007-06-22|2009-01-15|Broadcom Corporation|Position and motion tracking of an object|
US20090198798A1|2008-02-06|2009-08-06|Broadcom Corporation|Handheld computing unit back-up system|
US8175646B2|2008-02-06|2012-05-08|Broadcom Corporation|Networking of multiple mode handheld computing unit|
US8717974B2|2008-02-06|2014-05-06|Broadcom Corporation|Handheld computing unit coordination of femtocell AP functions|
US8195928B2|2008-02-06|2012-06-05|Broadcom Corporation|Handheld computing unit with merged mode|
US20090197641A1|2008-02-06|2009-08-06|Broadcom Corporation|Computing device with handheld and extended computing units|
US8064952B2|2008-02-06|2011-11-22|Broadcom Corporation|A/V control for a computing device with handheld and extended computing units|
US8117370B2|2008-02-06|2012-02-14|Broadcom Corporation|IC for handheld computing unit of a computing device|
US8508550B1|2008-06-10|2013-08-13|Pixar|Selective rendering of objects|
US8663013B2|2008-07-08|2014-03-04|Harmonix Music Systems, Inc.|Systems and methods for simulating a rock band experience|
US8427424B2|2008-09-30|2013-04-23|Microsoft Corporation|Using physical objects in conjunction with an interactive surface|
KR101671900B1|2009-05-08|2016-11-03|삼성전자주식회사|가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체|
US8009022B2|2009-05-29|2011-08-30|Microsoft Corporation|Systems and methods for immersive interaction with virtual objects|
US8744121B2|2009-05-29|2014-06-03|Microsoft Corporation|Device for identifying and tracking multiple humans over time|
US8465366B2|2009-05-29|2013-06-18|Harmonix Music Systems, Inc.|Biasing a musical performance input to a part|
US8449360B2|2009-05-29|2013-05-28|Harmonix Music Systems, Inc.|Displaying song lyrics and vocal cues|
US20110025689A1|2009-07-29|2011-02-03|Microsoft Corporation|Auto-Generating A Visual Representation|
US8803950B2|2009-08-24|2014-08-12|Samsung Electronics Co., Ltd.|Three-dimensional face capturing apparatus and method and computer-readable medium thereof|
US9141193B2|2009-08-31|2015-09-22|Microsoft Technology Licensing, Llc|Techniques for using human gestures to control gesture unaware programs|
US8963829B2|2009-10-07|2015-02-24|Microsoft Corporation|Methods and systems for determining and tracking extremities of a target|
US8867820B2|2009-10-07|2014-10-21|Microsoft Corporation|Systems and methods for removing a background of an image|
US8564534B2|2009-10-07|2013-10-22|Microsoft Corporation|Human tracking system|
US7961910B2|2009-10-07|2011-06-14|Microsoft Corporation|Systems and methods for tracking a model|
US9981193B2|2009-10-27|2018-05-29|Harmonix Music Systems, Inc.|Movement based recognition and evaluation|
EP2494432B1|2009-10-27|2019-05-29|Harmonix Music Systems, Inc.|Gesture-based user interface|
KR101629479B1|2009-11-04|2016-06-10|삼성전자주식회사|능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법|
US8265341B2|2010-01-25|2012-09-11|Microsoft Corporation|Voice-body identity correlation|
US8730309B2|2010-02-23|2014-05-20|Microsoft Corporation|Projectors and depth cameras for deviceless augmented reality and interaction|
US20110223995A1|2010-03-12|2011-09-15|Kevin Geisner|Interacting with a computer based application|
US8636572B2|2010-03-16|2014-01-28|Harmonix Music Systems, Inc.|Simulating musical instruments|
US20110230255A1|2010-03-18|2011-09-22|Nokia Corporation|Methods and apparatuses for facilitating user verification|
US8523667B2|2010-03-29|2013-09-03|Microsoft Corporation|Parental control settings based on body dimensions|
US9646340B2|2010-04-01|2017-05-09|Microsoft Technology Licensing, Llc|Avatar-based virtual dressing room|
US9098873B2|2010-04-01|2015-08-04|Microsoft Technology Licensing, Llc|Motion-based interactive shopping environment|
US20110279368A1|2010-05-12|2011-11-17|Microsoft Corporation|Inferring user intent to engage a motion capture system|
JP5737667B2|2010-05-25|2015-06-17|任天堂株式会社|ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法|
US9274594B2|2010-05-28|2016-03-01|Microsoft Technology Licensing, Llc|Cloud-based personal trait profile data|
US8602887B2|2010-06-03|2013-12-10|Microsoft Corporation|Synthesis of information from multiple audiovisual sources|
US9358456B1|2010-06-11|2016-06-07|Harmonix Music Systems, Inc.|Dance competition game|
US8562403B2|2010-06-11|2013-10-22|Harmonix Music Systems, Inc.|Prompting a player of a dance game|
WO2011155958A1|2010-06-11|2011-12-15|Harmonix Music Systems, Inc.|Dance game and tutorial|
US8296151B2|2010-06-18|2012-10-23|Microsoft Corporation|Compound gesture-speech commands|
US8381108B2|2010-06-21|2013-02-19|Microsoft Corporation|Natural user input for driving interactive stories|
US9086727B2|2010-06-22|2015-07-21|Microsoft Technology Licensing, Llc|Free space directional force feedback apparatus|
US8878656B2|2010-06-22|2014-11-04|Microsoft Corporation|Providing directional force feedback in free space|
US9024166B2|2010-09-09|2015-05-05|Harmonix Music Systems, Inc.|Preventing subtractive track separation|
US8462997B2|2010-09-15|2013-06-11|Microsoft Corporation|User-specific attribute customization|
US20120092364A1|2010-10-14|2012-04-19|Microsoft Corporation|Presenting two-dimensional elements in three-dimensional stereo applications|
US9123316B2|2010-12-27|2015-09-01|Microsoft Technology Licensing, Llc|Interactive content creation|
US20120169583A1|2011-01-05|2012-07-05|Primesense Ltd.|Scene profiles for non-tactile user interfaces|
US8866898B2|2011-01-31|2014-10-21|Microsoft Corporation|Living room movie creation|
US9329469B2|2011-02-17|2016-05-03|Microsoft Technology Licensing, Llc|Providing an interactive experience using a 3D depth camera and a 3D projector|
US9480907B2|2011-03-02|2016-11-01|Microsoft Technology Licensing, Llc|Immersive display with peripheral illusions|
US9225701B2|2011-04-18|2015-12-29|Intelmate Llc|Secure communication systems and methods|
US9432617B2|2011-04-26|2016-08-30|Dell Products L.P.|White balance adjustment of an image at an information handling system|
US8696461B2|2011-06-01|2014-04-15|Microsoft Corporation|Automated sensor driven match-making|
US8884949B1|2011-06-06|2014-11-11|Thibault Lambert|Method and system for real time rendering of objects from a low resolution depth camera|
US9597587B2|2011-06-08|2017-03-21|Microsoft Technology Licensing, Llc|Locational node device|
US20130005443A1|2011-07-01|2013-01-03|3G Studios, Inc.|Automated facial detection and eye tracking techniques implemented in commercial and consumer environments|
CN102368297A|2011-09-14|2012-03-07|北京英福生科技有限公司|一种用于识别被检测对象动作的设备、系统及方法|
KR101919831B1|2012-01-11|2018-11-19|삼성전자주식회사|오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법|
US9529426B2|2012-02-08|2016-12-27|Microsoft Technology Licensing, Llc|Head pose tracking using a depth camera|
JP5578186B2|2012-02-16|2014-08-27|カシオ計算機株式会社|キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム|
US20170365102A1|2012-02-23|2017-12-21|Charles D. Huston|System And Method For Creating And Sharing A 3D Virtual Model Of An Event|
KR101257207B1|2012-02-23|2013-04-22|인텔 코오퍼레이션|헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체|
KR101347840B1|2012-03-29|2014-01-09|한국과학기술원|신체 제스처 인식 방법 및 장치|
US20130285919A1|2012-04-25|2013-10-31|Sony Computer Entertainment Inc.|Interactive video system|
US9846960B2|2012-05-31|2017-12-19|Microsoft Technology Licensing, Llc|Automated camera array calibration|
US9767598B2|2012-05-31|2017-09-19|Microsoft Technology Licensing, Llc|Smoothing and robust normal estimation for 3D point clouds|
US20130321564A1|2012-05-31|2013-12-05|Microsoft Corporation|Perspective-correct communication window with motion parallax|
US9292085B2|2012-06-29|2016-03-22|Microsoft Technology Licensing, Llc|Configuring an interaction zone within an augmented reality environment|
US9996909B2|2012-08-30|2018-06-12|Rakuten, Inc.|Clothing image processing device, clothing image display method and program|
JP5791577B2|2012-09-28|2015-10-07|楽天株式会社|画像処理装置、画像表示方法、およびプログラム|
US10009579B2|2012-11-21|2018-06-26|Pelco, Inc.|Method and system for counting people using depth sensor|
WO2014130853A1|2013-02-21|2014-08-28|Petcube, Inc.|Remote interaction device|
US9639747B2|2013-03-15|2017-05-02|Pelco, Inc.|Online learning method for people detection and counting for retail stores|
US9269216B2|2013-04-25|2016-02-23|Igt Canada Solutions Ulc|Gaming machine having camera for adapting displayed images to detected players|
US9129478B2|2013-05-20|2015-09-08|Microsoft Corporation|Attributing user action based on biometric identity|
US10133816B1|2013-05-31|2018-11-20|Google Llc|Using album art to improve audio matching quality|
US9384013B2|2013-06-03|2016-07-05|Microsoft Technology Licensing, Llc|Launch surface control|
WO2014194439A1|2013-06-04|2014-12-11|Intel Corporation|Avatar-based video encoding|
JP2014238731A|2013-06-07|2014-12-18|株式会社ソニー・コンピュータエンタテインメント|画像処理装置、画像処理システム、および画像処理方法|
US9898642B2|2013-09-09|2018-02-20|Apple Inc.|Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs|
US9508197B2|2013-11-01|2016-11-29|Microsoft Technology Licensing, Llc|Generating an avatar from real time image data|
WO2015102637A1|2014-01-03|2015-07-09|Intel Corporation|Real-time 3d reconstruction with a depth camera|
WO2015164373A1|2014-04-23|2015-10-29|Raytheon Company|Systems and methods for context based information delivery using augmented reality|
US9483763B2|2014-05-29|2016-11-01|Apple Inc.|User interface for payments|
CN104143212A|2014-07-02|2014-11-12|惠州Tcl移动通信有限公司|基于穿戴设备的增强现实方法及系统|
US9642340B2|2014-07-16|2017-05-09|Elwha Llc|Remote pet monitoring systems and methods|
CN104474710B|2014-12-09|2015-09-02|山东大学|基于Kinect网络的大规模场景群体用户跟踪系统与方法|
CN104484039B|2014-12-22|2017-11-24|联想有限公司|信息处理方法和电子设备|
US9594967B2|2015-03-31|2017-03-14|Google Inc.|Method and apparatus for identifying a person by measuring body part distances of the person|
US10067352B2|2015-06-15|2018-09-04|Robert Joe Alderman|3D image generating lens tool|
CN105426833A|2015-11-13|2016-03-23|小米科技有限责任公司|用于游戏的图像识别方法及装置|
EP3376855A4|2015-11-19|2019-07-03|Petcube, Inc.|Remote interaction device with tracking of remote movement input|
TW201727537A|2016-01-22|2017-08-01|鴻海精密工業股份有限公司|人臉識別系統及人臉識別方法|
DK179186B1|2016-05-19|2018-01-15|Apple Inc|Remote authorization to continue with an action|
US10402643B2|2016-06-15|2019-09-03|Google Llc|Object rejection system and method|
KR101842600B1|2017-02-08|2018-05-14|한림대학교 산학협력단|가상현실 시스템 및 이를 이용한 가상현실 제공 방법|
CN106909911A|2017-03-09|2017-06-30|广东欧珀移动通信有限公司|图像处理方法、图像处理装置和电子装置|
KR20200044983A|2017-09-09|2020-04-29|애플 인크.|생체측정 인증의 구현|
US10475454B2|2017-09-18|2019-11-12|Motorola Mobility Llc|Directional display and audio broadcast|
US20200104620A1|2018-09-28|2020-04-02|Apple Inc.|Audio assisted enrollment|
法律状态:
2011-08-03| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110802 |
2013-06-17| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130617 |
2013-07-03| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
2013-10-03| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131002 |
2014-03-26| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140325 |
2014-06-26| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140625 |
2014-12-26| TRDD| Decision of grant or rejection written|
2015-01-07| A01| Written decision to grant a patent or to grant a registration (utility model)|Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
2015-01-22| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150115 |
2015-01-23| R150| Certificate of patent or registration of utility model|Ref document number: 5684577 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
2018-01-16| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2019-01-15| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2020-01-14| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2021-01-13| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2022-01-07| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]